News BMG-G31-GPU: „Big Battlemage“ kommt, aber nicht als Arc für Spieler?

Ai im genauen will nur tensor also fp16 performance aktuell arbeitet nvidia mit cuda an einen fp8 modell
Das ist viertel genau LLLm sind um genau zu nehmen Statistiken diese sind am effektivsten bei einfacher Genauigkeit aber auch am langsamsten da die Modelle an der Bandbreite und vram am verhungern sind.
Dies lässt sich lösen indem man die bisherigen gpu also den normalen alu dies berechnen lassen oder spezifizierte hardware dies übernimmt asics werden sich durchsetzen da billiger und weniger Energie benötigt wird. Aber und das ist das problem sie sind ungenau ein mix aus doppelter Genauigkeit und asics wird die Lösung sein.
Dafür braucht man aber den neuesten node und neue Halbleiter in analoger Technik
Das wird aktuell entwickelt
bismut Halbleiter sind vermutlich Mitte 2030 bereit für Massenfertigung
analoge pc später ende der 2030er

neue nodes bis dahin wäre zum Übergang gaa und bspd das den verbrauch zumindest senkt aber die chips sind groß und teuer. +- 360mm² nach gaa halbiert sich die Belichtungsfläche der wafer
Dies kann man nicht mehr in consumer gpu designen und müssten dediziert für ai Beschleuniger entwickelt werden. bsp 16 tensor kerne per sm (derzeit 4) mit 256 alu (derzeit 128) an min doppelter L1 L2 cache was dann 512kb (derzeit 128kb) und L2 auf 8gpc (derzeit 12) 512mb (derzeit 128mb) sind. Das geht ist aber dann das absolute maximum. Gaming wäre so ein chip nicht schneller als ne rtx4090.

Darum kommt ein hybrid der kann nur als apu kommen für lokale ai. Mit mehr alu und gleichen tensor kerne wie bisher bis maxed 200w tdp .mit intels razer lake auf 18a foveros apu perf auf etwa dem level der rtx5090 mit Fokus auf vgpu.
Die Stagnation ist sicher und nein das hat keine api limitierung oder fertigungsgründe sondern schlicht ai hat Vorrang.
Den normalerweise wäre man längst in taktrennen bei dgpu gewesen bei 5,0ghz dgpu und min doppelter alu also dann mit derzeitiger design bei 384 sm mit 4,0ghz und 500w tbp aber gaming ist nicht der Fokus sondern ai.
Der a16 node verspricht bis zu 5,1ghz bei gleicher tbp
bei cpu kommt glücklicherweise der halbe Weg bis 8,0ghz hin (zen7 auf am6) normal wäre man bei 9,5ghz
zumindest wird dass cpu limit ab zen6 (q1 2027) Geschichte sein (6,7ghz)
 
craxity schrieb:
Wieso bist du so sicher, dass es eine Blase ist? Man kann KI produktiv für legale Zwecke nutzen. Warum sollte man damit wieder aufhören?
KI wird sicher nicht verschwinden. Aktuell ist es aber extrem gehyped und man versucht überall KI einzubauen und gleichzeitig werden Unsummen dafür aufgewendet.
Irgendwann ist aber der Punkt gekommen, wo man erkennt, dass man den Invest vielleicht gar nicht mehr zurück bekommt, da man nicht jeden KI Einsatz monetarisieren kann. Nicht jede Situation zieht einen Nutzen aus KI und wenn die Anwender dafür dann auch noch zahlen sollen, wird der Hype schnell abebben und KI nur noch da übrig bleiben, wo es wirklich funktioniert.
Wenn der Punkt gekommen ist, wird der Geldfluss abebben und dann ist die Frage wie die Rechenzentren dann bezahlt werden sollen. Das kann sogar so weit gehen, dass die Finanzierung für den Betrieb schon in Frage gestellt wird.
In dem Moment verschwindet dann auch die Nachfrage nach noch mehr Speicher, noch mehr Rechenleistung und der Markt kippt.
Ob man das jetzt als Blase bezeichnen kann ist wohl Blickwinkel abhängig.
 
  • Gefällt mir
Reaktionen: herrStreusalz und 3faltigkeit
Intel versagt echt nur noch auf allen Ebenen. Offenbar geht's ihnen immer noch nicht schlecht genug.
 
craxity schrieb:
Und wo siehst du Parallelen? Deine Argumentation ist bisher sehr abstrakt.
Mische mich mal ein, die Parallele ist, dass viel viel viel Geld investiert wird, mehr als aktuell damit verdient werden kann. Selbst OpenAI sprach davon, Zitat Finanzchefin: "Man müsse die Lücke schließen, die zwischen den Möglichkeiten von KI-Systemen und der Art und Weise besteht, wie Menschen und Unternehmen diese nutzen.".
D.h. nix anderes, als man hat eigentlich kein Produkt, dass stark gefragt ist und jetzt sucht man danach!
Die ganzen Investitionen in diesem Bereich wurden/werden getätigt, weil man sich eine horrende Summe an Geld damit zu verdienen versprach, allerdings ist da noch kein von der Masse gefragtes Produkt heraus gekommen, aber unendlich viele Beschleuniger und Rechenzentren verbaut...
Dazu kommen die fragwürdigen Kreisgeschäfte, z.B. NVidia investiert 100mrd Dollar in Open AI und diese wiederum kaufen bei Nvdia die Hardware. Wenn es crasht geht ganz ganz viel Kohle kaputt und nicht nur deren, sondern auch aller Investoren....
 
@TausendWatt Es ist interessant zu sehen, dass du dich für eine selektive Wahrnehmung entschieden hast. Die Kernaussage des verlinkten Artikels ist, dass der Umsatz von OpenAI durch die aktuell verfügbare Rechneleistung begrenzt ist. Auf dieser Grundlage ist deine Schlussfolgerung "man hat eigentlich kein Produkt, dass stark gefragt ist und jetzt sucht man danach" nicht haltbar. Wenn man aber mehr Rechenleitung braucht, um mehr Umsatz zugenerieren, ist es klar, dass man jetzt investieren muss, um später Umsatz zu generieren.

Natürlich möchte OpenAI auch die Nutzerbasis erweitern. KI ist noch recht neu und viele Menschen haben sich noch nicht daran gewöhnt KI im Alltag einzusetzen. Dass OpenAI auch auf Werbung setzen wird, ist ebenfalls keine Überraschung. Der Werbemarkt ist riesig und es wäre verrückt ihn nicht anzapfen zu wollen. Zusätzlich koppelt man seinen Umsatz von den Abo-Gebühren ab.
 
craxity schrieb:
@TausendWatt Es ist interessant zu sehen, dass du dich für eine selektive Wahrnehmung entschieden hast.
Interessant wieviel du selektierst bzw. keine Ahnung hast: Umsatz ist ungleich Gewinn, du kannst Mehr Umsatz als NVidia machen und trotzdem in der Verlustzone zu sein.
Zumal das im Artikel beschriebene "Umsatz" Problem erstmal nix mit Profitabilität zu tun hat und eine relative Kennzahl ist, somit keine Bedeutung in Bezug auf die "Blase" hat...
Darüber hinaus, Nutzerzahlen sagen primär nicht aus wieviel Umsatz du generieren kannst, erst wenn du es monetarisierst und deine Nutzer es auch annehmen, hast du was gewonnen. Aktuell und das sieht ja auch OpenAI so,, bzw. die Finanzchefin höchst persönlich, dass das aktuelle Angebot eben nicht das ist was sie für gute Geschäfte brauchen und die Frage immer noch nicht beantwortet ist, wieviele Menschen zu welchem Preis KI einsetzen wollen und werden, also wenn es dann irgend wann mal was kostet und nicht for free oder für kleine Abogebühren zur Verfügung steht.
Aber ich sehe schon, ich rede gegen rede gegen eine Wand.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: herrStreusalz
@TausendWatt Jedes marktwirtschaftliche Unternehmen will und muss seinen Umsatz steigern. Der Umsatz von OpenAI hat sich zuletzt verzehnfacht, wird aber durch die beschränke Rechenleistung limitiert. Deshalb muss OpenAI in Rechenleistung investieren. Wo kommst du nicht mit?

Dass du nach Gewinn fragst, zeigt, dass zu keine Ahnung hast. Leider zeigt die Frage auch, warum Europa immer öfter abgehängt wird. KI ist ein neuer Markt. Jetzt geht es darum die Technologieführerschaft zu haben und sich einen möglichst großen Marktanteil zu sichern. Gewinn macht man später. Natürlich ist ein Risiko immanent. Aber wenn man das Risiko nicht eingeht, hat man schon verloren.
 
  • Gefällt mir
Reaktionen: herrStreusalz
Ich finde es nicht zwingend verkehrt wenn Intel versucht vom AI Boom zu profitieren solange es ihre GPU Sparte am leben hält. Denn dann profitieren wir früher oder später auch davon.

Die neuen CPU's und iGPUs sehen vielversprechend aus.
 
craxity schrieb:
@TausendWatt Jedes marktwirtschaftliche Unternehmen will und muss seinen Umsatz steigern. Der Umsatz von OpenAI hat sich zuletzt verzehnfacht, wird aber durch die beschränke Rechenleistung limitiert. ?
Die Frage ist doch was du nicht verstanden hast. Du hast den Artikel wohl nicht aufmerksam genug gelesen . Die 20MRD sind annual revenue run rate. D.h. nicht der wahre Umsatz, sondern eine Hochrechnung, die den Monat mit dem höchsten Umsatz einfach mal 12 multipliziert. D.h. daraus lässt es keine Rückschlüsse weder auf das Wachstum noch auf steigende oder fallen Nutzerzahlen zu. Real könnten es auch nur 15MRd sein und wäre somit nicht mehr das 10fache. Es ist einfach eine weitere relative Kennzahl, die mit anderen relativen Kennzahlen verknüpft wurde. Man stellt also fest, dass man den Umsatz steigern konnte und das aktuell mehr oder weniger linear zur Kapazitätserweiterung geschieht, rein rechnerisch/relativ.

Wenn man aber den tatsächlichen Umsatz, der nicht erwähnt wurde (wohl um die Investoren bei der Stange zu halten) und der evtl. doch nicht 20 MRd entspricht, sondern evtl. darunter liegt (Warum sollte man ihn sonst zurückhalten und hinter einer Kennzahl verstecken, positive Nachrichten würde man wohl direkt kommunizieren) gibt es eine Schere zwischen Investition (Kapazitäterweiterung) und Umsatzsteigerung, d.h. man baut mehr Kapazität als gerade gefragt wird... Was die Kapazitätserweiterungen in Frage stellen könnten aus Investitionsicht.
Was du Marktanteile nennst, sind noch keine Anteile, was da gerade passiert ist eine riesen Wette auf einen möglichen Markt, einen potentiellen Markt, die entweder aufgeht oder nicht. Die Analogie zum damaligen Goldrausch ist treffend.
In jedem Fall werden die großen bleiben, allerdings dann mit einem Markt der wohl nicht so groß wie erhofft und das meinen eigentlich alle mit Blase. Denn aktuell wird soviel Geld rein gebuttert, wir reden hier von Billionen und dagegen sind 20mrd ein Fliegenschiss bzw. Taschengeld.
Was du aber auch unter den Tisch kehrst, dass mit steigender Kapazität die laufenden Kosten mit skalieren und das natürlich ein weiterer Faktor ist, der die Wirtschaflichkeit und den break Even torpediert. Gerade im Techsektor, wird man aber auch nur ein paar Jahre damit auskommen, dann braucht es neue Beschleuniger, die wiederum nicht billiger sein werden...
D.h. Wenn die das Produkt KI der Masse und nicht nur einzelnen Unternehmen/ Techieblase wirklich schmackhaft machen können, so dass diese bereit sind monatlich massives Geld in die Hand zu nehmen, weil es nicht mehr aus dem Alltag wegzudenken ist, wird das Ding im großen Stile scheitern, d.h. nicht das KI weg ist, nur nicht so groß wie erhofft und viel Geld kaputt ist...
 
spyro2000_de schrieb:
Intel versagt echt nur noch auf allen Ebenen. Offenbar geht's ihnen immer noch nicht schlecht genug.
Weil sie eine viel zu alte GPU nicht für den Consumer-Bereich veröffentlichen?

Die B770 hat eine relativ großen Chip und dürfte teuer in der Produktion sein, auch eine B580 dürfte teuerer in der Herstellung sein als vergleichbare Konkurrenzmodelle. Was ist an einer völlig logischen Entscheidung von Intel hier "versagen"?

Intel hat die letzten 12 Monate riesige Fortschritte bei der der Treiberentwicklung gemacht, die B580 ist eine valide Option in der 250€-Klasse die man nahezu bedenkenlos empfehlen kann, was vor einem Jahr und mit Alchemist noch nicht der Fall war.
 
  • Gefällt mir
Reaktionen: herrStreusalz
Die kämen wohl eher als Arc Pro B65 und Co, statt als "B65 Pro" - da das bisherige Line-Up z.B. bereits als "Arc Pro B60" oder "Arc Pro A60" verfügbar ist.

Ich finde gut, dass Intel "mitmischt" - mein MSI Claw habe ich bereits mit dem AI Playground von Intel herumgespielt und muss sagen: das sind die Einzigen bisher, die es schaffen, es normalen Nutzern auf ihrem PC (ohne Config-/Library Orgien) zugänglich zu machen.

Diffusion- und Sprachmodelle (in begrenzter Größe natürlich je nach Hardware) werden automatisch geladen und wahlweise Bilder erzeugt, hochskaliert oder Texte "quergelesen".

ROCm von AMD habe ich noch als Gebastel in Erinnerung, NVIDIA läuft ootb, wenn man sich erstmal LM-Studio/vllm/Ollama/Comfy und Co selbst runtergeladen/eingerichtet hat. Mit Mausklick fertig macht das aktuell niemand besser als Intel.

Und es erledigt die Anfragen lokal auf dem Gerät - eine Sache, die mich aktuell noch viel mehr stört: Hardware mit AI-Badge verkaufen, um Anfragen dann Online gegen "Credits" oder Abos zu verarbeiten.
 
Wenn ich jetzt einen Betriebsprüfer zu openai schicken würde würde der sofort die insolvenz beantragen das unternehmen macht keinerlei gewinn und die Prognosen für Einnahmen sind mau.
Ohne Werbung und ohne Kapitalisierung von Nutzer Daten wird das nix.
Die abomenten liegen auf maximal 5% von der Nutzung und das oft privat.
Der kostenlose Zugang muss eingeschränkt werden damit die abos steigen nur hat openai Konkurrenz mit apple google amazon und meta
Dazu die freien LLM auf gpl basis
Dazu die harte Konkurrenz aus china die ein anderes Konzept verfolgen kein LLm sondern spezifische algos
nvidia flüchtet zum militärische komplex da diese auch erkennen das privat nix verdient werden kann
firmen profitieren von den tools gar nicht.
Da bleibt nur mustererkennung sprich Waffensysteme und manipulation von medien über.
Darum weis ich das dies platzen wird. Spätestens wenn usa erkennt das dies ne Waffe wird.
Der letzte Ausweg für die Investoren ist das hardware nur gemietet werden kann. Das aber wird anhand des crash der kommt verhindert.
US trifft diese hart da deren ganze Wachstum auf ai basiert, die Rezession ist sicher. Offen ist nur wie hart es die eu trifft.
 
syfsyn schrieb:
Wenn ich jetzt einen Betriebsprüfer zu openai schicken würde würde der sofort die insolvenz beantragen das unternehmen macht keinerlei gewinn und die Prognosen für Einnahmen sind mau.
Warum sollte sich ein Betriebsprüfer für die Prognosen eines Unternehmens interessieren oder gar Insolvenz beantragen?
 
TausendWatt schrieb:
Was du Marktanteile nennst, sind noch keine Anteile, was da gerade passiert ist eine riesen Wette auf einen möglichen Markt, einen potentiellen Markt, die entweder aufgeht oder nicht. Die Analogie zum damaligen Goldrausch ist treffend.
Der Markt wächst und entwickelt sich mit der Zeit. So läuft es nunmal. Da muss man so früh wie möglich dabei sein. Man kann nicht 10 Jahre warten, bis sich alle wirtschaftlich funktionierenden Produkte etabliert haben und dann aufspringen. Gerade kämpfen alle Riesen aus der IT (mit tiefen Taschen und soliden Umsätzen) um die Vorherschaft in einer neuen Technologie. Da ist es doch unwahrscheinlich, dass alles in wenigen MOnaten kollabiert. Wie kann man eigentlich so anmaßend sein und glauben, dass man es als einfacher Forist besser weiß als alle anderen? Im übrigen waren andere Blasen (z.B. DotCom) eher von Privatinvestoren angetrieben, die in Unkenntnis der Technologie blind investiert und auch bewusst sprekuliert haben. Das ist heute m.E. eine ganz andere Situation. Auch beim Goldrausch waren es letztendlich Einzelpersonen die (aus welchen Gründen auch immer) ihr Glück bei der Goldgräberei gesucht haben.
Ergänzung ()

syfsyn schrieb:
Darum weis ich das dies platzen wird.
Deine Schlussfolgerung beruht auf einer wilden Sammlung kruder Behauptungen und steiler Thesen ;)
 
Lan_Party94 schrieb:
Wäre echt dämlich, wenn Intel gerade jetzt nichts macht! Intel könnte sich ordentlich Kunden ranholen, wenn deren GPUs P/L technisch ordentlich sind, weil die wenigsten sich eine 5070ti oder 9070XT kaufen werden.
Eine gute GPU um 350€ mit 16GB wäre wahrscheinlich der "Heiland" für die nächsten 2 Jahre - schätze ich jetzt mal so. =)
Gibt es ja schon in besser zu kaufen >>> RX9060

Da stinkt jede Arc ab, egal bei was.
 
@craxity
2026 sehen mehr Personen als nur ein einfacher Forist sehr dunkle Wolken am Horizont. Openai kann noch weiter nach der Technologieführerschaft streben. 5 Mrd. Dollar sammelt Google von Apple ein.

Nvidia gibt den Takt vor. Vera Rubin soll die Kosten pro Token auf ein Zehntel drücken. Jedes Jahr haben neue Spieler die Chance einzusteigen.

Suchmaschinen waren vor 30 Jahren vergleichbar. Hoher technologischer und finanzieller Einsatz ohne solides Geschäftsmodell. Weckt der Name Altavista Erinnerungen?

Pioniere gehen selten als Sieger hervor, weil Nachahmer Fehler und Kosten vermeiden können. Openai weiß noch nicht wohin die Reise geht. Hardware soll das nächste Ding werden.
 
Redirion schrieb:
Gamer sind doch auch bei Nvidia kein Thema mehr, siehe ausgefallenen Super Refresh. Alle Ressourcen werden zu den besser zahlenden Business-Kunden umgeleitet.
die 5% mehrleistung hätte vermutlich eh kaum ein gamer abgeholt, viele games sind zu blöd meine 16gb voll zu machen, obs jetzt an gamedevs liegt oder ob nvidias karten einfach zu schlecht sind vram+fps in balance zu halten kann ich dir gar nicht sagen... wenn der vram fast voll ist hab ich immer fps des todes...
superrefresh, hätte wohl hauptsächlich aibuddys abgeholt, preise nach oben treiben lassen, wodurch dann die preisliche grundbasis der gaming karten wieder eine stufe höher werden... würde...

2026 rtx60 ist unrealistisch, wäre aber deutlich geiler für gamer
 
Der Fokus ist ai und rubin ist ein reiner ai beschleuuniger das hat null mit gaming zu tun
rubin wird so aufgebaut sein
Ein sm hat 128 alu wie bisher 16 tensor cores derzeit 4 und kein rt cores das design ist von hopper aus her designt worden
Es gibt keine display engine diese ist in der vera cpu intrigiert
Das design von rubin ist auf dataenteer level ausgelegt ein rack ist die gpu und das ist aus logischen Schluss nur mit latenz zu gebrauchen weswegen Echtzeit grafik hier kein sinn ergibt.
Darum auch keine rt cores

Der wahre Nachfolger ist feynman den es als apu geben wird zum glück mit intel razer lake cpu auf nen neuen sockel
Das war bis vor q4 2025 nicht klar den nvidia arbeitet auch an eine ARM cpu womit mit cloud gaming Stationen die games gestreamt werden sollen.
nvidia hat 3 Projekte laufen einmal traditionell mit dgpu was ausläuft und in apu gehen wird
und nochmal cloud basierende endgeräte und einmal professionelle Beschleuniger die entweder lokal laufen also per quadro oder in datacenter als basis für game stream
Die apu werden den entry Bereich der bis zu ner rtx5090 perf geht abdecken
den cloud Ansatz ist das zukünftige high end was lokal mit nur teilberechungen läuft
etwa die display engine mit rop und tmu und dann die gamestream Geschichte also gforce now
Die gamestream Geschichte läuft dann für die legacy spiele die diese Technik nicht unterstützen.
Das ist der plan

Die einzige Lösung ist hier apu als Konsument ohne online account Anmeldung man soll sich die perf mieten.
2026 ist das Jahr wo dieser plan der nebenbei eine Absicherung ist und logisch gar nicht funktionieren kann und für die Monetarisierung gedacht ist.

Würde man das umsetzen bräuchte es in jeder provinz ein datacenter wo ein ai modell läuft primärer Grund und das game stream als backup für die Finanzierung dessen.
Blöd das die Stromnetze das nicht können.
Darum die apu Serie als ausstieg wenn ai scheitert und das wird es.
 
lWllMl schrieb:
die 5% mehrleistung hätte vermutlich eh kaum ein gamer abgeholt, viele games sind zu blöd meine 16gb voll zu machen, obs jetzt an gamedevs liegt oder ob nvidias karten einfach zu schlecht sind vram+fps in balance zu halten kann ich dir gar nicht sagen... wenn der vram fast voll ist hab ich immer fps des todes...
superrefresh, hätte wohl hauptsächlich aibuddys abgeholt, preise nach oben treiben lassen, wodurch dann die preisliche grundbasis der gaming karten wieder eine stufe höher werden... würde...
5% Mehrleistung reißt natürlich kaum jemanden vom Hocker, der bereits eine RTX40 oder RX90 hat.

Es gibt aber jede menge Aufrüstpfade aus der Vorgängergeneration, wo so ein Super Refresh spannend wäre. Denk nur an die ganzen VRAM-Krüppel der RTX30 Gen mit beispielsweise der RTX 3070 Ti (8GB !!) oder RTX 3080 10GB.

Mit persönlich ist alles über 300W bei einer GPU zu viel. Ich lasse selbst meine 300W 6900 XT mit -10% Powertarget laufen.

Bei Nvidia wäre daher rein technisch die kolportierte RTX 5070 Super spannend gewesen. Mit 275W genau mein "wohlfühlbereich", seichtes RAM-Upgrade durch 18GB gepaart mit aktueller Upscaling-Technologie. Die 5% Mehrleistung gegenüber der ursprünglichen RTX 5070 nimmt man dann gern als Bonbon mit.

Erwartungshaltung war ja, dass Nvidia die ohnehin überzogenen UVP der Non-Super-Karten übernimmt und damit mit dem Super Refresh wieder das Preisgefüge ein wenig in Ordnung bringt. Dass das nun ausfällt, zementiert die beschissene Preissituation für uns Gamer leider.
 
Zuletzt bearbeitet:
Zurück
Oben