Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsNext-Gen-AI-Hardware: Nvidia Vera Rubin und das nächste NVL72-Rack sind fertig
Vera Rubin ist fertig und wird zum Start im 2. Halbjahr 2026 noch schnelleren HBM4 nutzen. Eine Rolle rückwärts gibt es beim Rack: Bei Vera Rubin heißt es wieder NVL72, NVL144 als Rechenspielerei ist Geschichte.
Endlich mal mehr AI im Jahre 2026 !
China wird gleich mal die ersten 500.000 Einschübe wegkaufen - und Nvidia macht jedes Quartal doppelt soviel Gewinn wie im Vorgängerquartal. Wird doch mal Zeit noch ein paar Aktien zu kaufen.
Die Entwicklung ist beeindruckend Blackwell wirkt angesichts der Folien schon wieder veraltet, vor allem wenn man die Kosten pro Token betrachtet. Es erinnert ein wenig an die GPUs der frühen 2000er.
PC-Gaming muss sich heute mit den Resten begnügen und ist zudem kaum noch bezahlbar. Damals habe ich den Preis einer 5950 Ultra von Winfast vor meinen Eltern verheimlicht, immerhin stolze 400 Euro im Fachhandel (Comtech) hab ich bezahlt, die ich mir als Schüler nebenbei verdienen konnte. Heute hingegen können sich junge Leute keine 3000–5000 Euro für ein High-End-Modell zusammensparen.
Es sind tatsächlich unglaubliche Neuigkeiten für 2026.
Blackwell erscheint gerade halbwegs kostengünstig in Form von RTX 6000 Pro mit 96GB für SMEs in ausreichender Verfügbarkeit, womit man 100b+ Modelle in INT4/FP4 sauber laufen lassen kann - das war vorher nicht möglich. Damit wird AI kostengünstig und intern realisierbar.
Jetzt bereits 26'H2 nachzulegen mit der fünffachen Performance bei 4bit inferencing ist Wahnsinn - sofern das tatsächlich auch so "auf der Straße ankommt".
AI Chatbots & vielerlei andere Anwendungen sieht man nur aus einem einzigen Grund nicht überall: die größeren Modelle und insbesondere Reasoning ist pro Token zu langsam und zu teuer. Mit diesen Verbesserungen rückt das aber sowohl Cloud- als auch OnPremise-basiert in greifbare Nähe für SMEs. Und für Big Enterprise sowieso - da ist es der letzte Dominostein in Performance und Preis, um es wirklich überall einzusetzen.
Fünffach gegenüber Blackwell GB200 (50PFlops zu 10 PFlops), aber schon Blackwell Ultra GB300 ist schneller (15 PFlops). GB200 ist übrigens ein Chip von Mitte 2024, H2 2026 ist also gut zwei Jahre später und nicht besonders schnell (auch nicht langsam), der Vergleich mit der Veröffentlichung der RTX 6000 Pro ist einfach auch hier der falsche.
ascer schrieb:
AI Chatbots & vielerlei andere Anwendungen sieht man nur aus einem einzigen Grund nicht überall: die größeren Modelle und insbesondere Reasoning ist pro Token zu langsam und zu teuer.
Es liegt nicht nur am Preis. Man muss auch einen sinnvollen Einsatzzweck definieren und das drumherum konstruieren, bevor sowas Sinn macht. Und wie der Preis sich wirklich entwickelt, ist sowieso noch eine ganz andere Frage, wenn man auf die Speicherpreise schaut.
Jeder Server ärgert die Umwelt immens, schafft Jobs ab, nimmt anderen Produkten die Ressorucen weg und verteuert diese, wozu eigentlich??? Für künstliche Intelligenzen, die sich selbst einen Faschisten nennen, Kinderpornobilder erzeugen und lauter Fake-Nachrichten verbreiten und Falschaussagen treffen, illegal rechtlich geschützes Material und persönliche Daten anderer für sich verwerten und es auch sonst überhaupt nicht so genau nehmen?
Am Ende wollen sich die Großkonzerne nur an uns bereichern und uns in deren Abhängigkeit bringen, wenn sich Systeme etabliiert haben, wie so ein Microsoftsystem, dann kommt man als Verweigerer nicht mehr weit.
Die Entwicklung ist beeindruckend Blackwell wirkt angesichts der Folien schon wieder veraltet, vor allem wenn man die Kosten pro Token betrachtet. Es erinnert ein wenig an die GPUs der frühen 2000er.
PC-Gaming muss sich heute mit den Resten begnügen und ist zudem kaum noch bezahlbar. Damals habe ich den Preis einer 5950 Ultra von Winfast vor meinen Eltern verheimlicht, immerhin stolze 400 Euro im Fachhandel (Comtech) hab ich bezahlt, die ich mir als Schüler nebenbei verdienen konnte. Heute hingegen können sich junge Leute keine 3000–5000 Euro für ein High-End-Modell zusammensparen.
Die Leadtek Winfast 5950 Ultra hatte ich auch, in der 10 Klasse zusammen gespart. Sehr schöne Karte, auch heute noch. Im Nachhinein wäre für das Geld eine 9800 Pro oder 9800XT aber die bessere Wahl gewesen :/ Das war mir spätestens mit Far Cry klar...
Die Neue Technik wandert heutzutage direkt ins Rechenzentrum, sie bleibt bei den Konzernen. Einzelne Menschen können sich das finanziell zu Hause nicht mehr selbst hin stellen (GPU & Speicherpreise). Für die gibt es dann Abos zum Melken und Kontrollieren was, wie & wann gespielt wird. Technischer Fortschritt ist eben nicht mehr für alle. Aber das ist ja auch Unterhaltung, wir sollen ja schließlich gefälligst mehr arbeiten :-D
So genug Kapitalismuskritik für heute...
Leider werden die Gamer vernachlässigt, die die größte Zeit Nvidias Kunden waren. Man hätte in diesem Zuge gleich auch ne 6090 raushauen können statt sie künstlich um 1,5 jahre zu verschieben.
Leider werden die Gamer vernachlässigt, die die größte Zeit Nvidias Kunden waren. Man hätte in diesem Zuge gleich auch ne 6090 raushauen können statt sie künstlich um 1,5 jahre zu verschieben.
Jetzt müsste man aber schauen, was hier angekündigt wurde, und was "künstlich verschieben" wäre.
Nvidia sagt, Vera Rubin kommt in der zweiten Jahreshälfte... das heißt spät in diesem Jahr, sonst hätten sie drittes Quartal gesagt. Der Datacenter-Chip ist zwar der größte, gleichzeitig aber auch von seinen Fähigkeiten her der simpelste - der kann nur Compute, sämtliche Grafik/Gaming-Features fehlen dem. Entsprechend ist es logisch, dass er als erster Rubin-Chip fertig ist.
Damit sind wir für eine 6090 irgendwo in der ersten Hälfte 2027 als frühest möglicher Termin, zu dem die Karte fertig sein könnte. Nach aktueller Gerüchtelage soll der Start im zweiten Halbjahr erfolgen. Man kann hier Nvidia entsprechend vielleicht ein gutes halbes Jahr "künstliche Verschiebung" unterstellen, aber nicht 1,5 Jahre.