News Speicherkrise: Nvidia soll RTX-50-Produktion wegen teurem GDDR7 zügeln

@blubberbirne Wenn ich nicht so auf Mini ITX und Effizienz schielen würde hätte ich die wohl auch, auch kurz über eine der Quaddro nachgedacht (die gibt's ja tatsächlich auch in kleineren Bauformen und kürzer, so dass das dann in meine Gehäuse passen würde). Aber ja, einfach zu teuer für mein bisschen Hobby-Spass-Bilder machen. Und arbeite im Möbelhandel, meinen Chef werde ich wohl nicht überreden können, mir sowas hier zur Verfügung zu stellen, für A3 Banner-Werbung reicht immer noch die 4060 mit ihren 8 GB und 32 GB RAM 🤟
 
nGreedia mal wieder.
Aber war abzusehen, mich würde es eh nicht wundern, wenn nvidia sich irgendwann aus dem Consumer Markt komplett rauszieht. Mit Business Karten lässt sich halt mehr Geld verdienen.

PC Zeiten neigen sich dem Ende zu, immer weniger Leute besitzen einen Desktop, selbst Laptop wird immer seltener, kenne im Freundeskreis so viele die nur noch Handy/Tablet für alles nutzen, damit wird es immer mehr zur Nische Firmen brauchen keine Konsumer Karten.
 
  • Gefällt mir
Reaktionen: MalWiederIch
ElliotAlderson schrieb:
Dann erleuchte uns. Bin gespannt wie du mir verklickern willst, dass irgendwer in DE auch nur Ansatzweise an der Größe von OpenAI, Oracle oder MS kratzen will. Gerade in DE, wo KI völlig verschlafen wurde :D

Was willst du von mir? Arbeit ich bei keiner KI Firma? Nein.

@Keuleman Das wird noch. Marketing geht immer richtung KI content.
 
Meineserachtens müssen wir davon ausgehen, das Nvidia hier Kapazitäten für KI-Beschleuniger frei macht.

Paar mehr Wafer für das Enterprisesegment bringt einfach mehr Profit. Zumal davon ausgegangen werden muss, dass die Customhersteller eh keine riesigen Mengen VRAM bekommen werden um Nvidia die Chips abzukaufen, seitdem Nvidia diese nicht mehr im Bundle verkloppt. Der Schritt ist aus wirtschaftlicher Sicht sinnvoll.
Einerseits steigen die Preise bei den Consumerkarten...mehr Gewinn. Andererseits werden aufgrund von Verknappung die Lagerbestände der anderen Karten auch eher angetastet und da wird dann dort auch der Preis steigen.

Gibts keine 5070TI oder 5060TI, werden einige sicher eine 5080 oder 5070 kaufen. So können sie die Lager leeren, machen mehr Gewinn und was nachproduziert wird, wird automatisch teurer. Primär wirds aber um die KI-Beschleuniger gehen. Wenn Gaming nur noch ca 8% am Gesamtvolumen hat und KI mehr bringt...würde ich auch die KI-Produktion erhöhen und den anderen Sektor runterstufen.

Für AMD wäre das auch ein logischer Schritt. Angenommen, die würden bei der nächsten Generation Nvidia bei der KI-Leistung übertrumpfen, dann wird da die Produktion auch sehr schnell in die Richtung umgestellt.

Solange die KI-Bubble nicht doch platzt, eine effizientere Ersatztechnologie geschaffen wird, KI nicht weniger Hardwarehungrig wird...müssen wir davon ausgehen, dass das was wir hier noch bekommen, die Resterampe von beiden Herstellern aus der KI-Produktion ist.
 
  • Gefällt mir
Reaktionen: twx24
@blubberbirne Jo, das stimmt wohl. Bin auch grad erst angefangen, mich in das Thema Marketing einzuarbeiten. "Graphic Design School" arbeite ich grad durch, möchte einfach "mehr" aus dem Thema machen. Habe allerdings nen kleinen Rechnerpark daheim und auch Systeme mit mehr Bumms als 32 GB RAM und 8 GB VRAM, wenn es dann mal an Filialwand-große Werbung gehen sollte :-)

Naja, gut, zurück zum Thema hier: ich bleibe erst mal bei der 40er Generation. Wenn grad eine neue ran müsste... es wäre wohl die 5060 Ti für mich, 16 GB und ansprechend performant bei gutem Preis aktuell. Unter 500. Bin gespannt, ob die in dem Preisrahmen bleiben wird bei der aktuellen Situation.
 
MaverickM schrieb:
Das, was im Consumer-Segment landet ist ohnehin der "Ausschuss" von den Profi-Chips.
Es werden aus einem den KI Chips wie dem GB100/200 und entsprechendem HBM Speichercontroller keine GB102/104 mit GDDR7 rausgeschnitten...es handelt sich nicht um Ausschuss, sondern um eigenständige Chips.

Die 5090 ist auch kein "Ausschuss" gegenüber dem Full Chip, sondern einfach strategisch teildeaktiviert.
Somit wäre jede Karte zur Produktsegmentierung "Ausschuss" die nicht den Full Chip verbaut haben, was auch nicht haltbar ist. 4090, 2080Ti, 3090 alles "Ausschuss".
MaverickM schrieb:
Als ob der "Ausschuss" plötzlich weniger werden wird pro Wafer.
Doch, genau das passiert durch yield improvement. Wenn TSMC den 4N oder 3nm Prozess zusammen mit Nvidias Produkt über Monate/Jahre optimiert, sinkt die Fehlerquote pro Wafer massiv.
MaverickM schrieb:
Das was nVidia hier vorhat bedeutet schlichtweg, dass selbst die Workstation-Karten in der Produktion zurück gefahren werden und Kapazitäten für die KI-Chips freigemacht/gebucht werden.
Das ergibt wirtschaftlich keinen Sinn, da die Workstation Karten enorme Margen haben, Nvidia wird sich kaum das eigene Hochpreissegment verknappen lassen.
MaverickM schrieb:
Keine Ahnung, wie man das positiv rechtfertigen will. Aber einige Fanboys schaffen es scheinbar (oder zumindest versuchen) es dennoch.
Du stellst alles negativ dar, während andere das pragmatisch sehen, denn vor den gleichen Problemen steht AMD auch.
Dass NVIDIA die lukrativsten Wafer priorisiert ist bestimmt richtig, aber Unternehmen müssen auch ökonomisch handeln.
Aber die Behauptung, Gaming sei nur KI Abfall ignoriert, dass NVIDIA für Gamer eigene Milliarden Beträge in die Entwicklung spezifischer Architekturen die für KI Server ungeeignet sind steckt und Nvidia als unangefochtenen Markführer zu kritisieren, sie würden nichts für Gamer tun, obwohl sie die ganzen Entwicklungen der vergangenen Jahre angestoßen haben ist auch nicht schlüssig.
MaverickM schrieb:
Gemäß der Jahreszeit, meine kurze Antwort: Humbug! :D
So bist du hier unterwegs, alles was nicht in den Kram passt ist "Humbug".
MaverickM schrieb:
Die Tatsache, dass sie bisher GPUs im Package-Deal mit DRAM Chips verkauft haben - und als Großabnehmer deutlich bessere Konditionen aushandeln konnten, als einzelne AIBs - ignorierst Du gekonnt.
Nvidia begibt sich mit einem ~13-fachen Volumen gegenüber AMD auch in ein ganz anderes Risiko und stößt an andere Grenzen. Auch wenn es für kleinere AIBs schlechter ist, so ist das Verfahren bei Notebooks schon seit langem so.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MalWiederIch und ElliotAlderson
ElliotAlderson schrieb:
Aber euer Geschwurbel ist da sicher näher an der Wahrheit, blubberbirne XD
Du schreibst euer, und nicht seins ;)

ElliotAlderson schrieb:
Also weißt du es nicht? Wie ironisch :D

Ist das so? KI Branche und Distribution sind zwei Paar Schuhe. Hier geht um um die Speicherkrise und die Folgen. Und die Folgen komme nun mal in der Distribution früher an als beim Endkunden. Oder siehst Du das anders?
 
blubberbirne schrieb:
Ist das so? KI Branche und Distribution sind zwei Paar Schuhe. Hier geht um um die Speicherkrise und die Folgen. Und die Folgen komme nun mal in der Distribution früher an als beim Endkunden. Oder siehst Du das anders?
Nö, aber er behauptet, dass Nvidia die Produktion bremst, um sie zu KI zu verschieben. Dass mag so passieren, aber sie machen es nicht aktiv, weil sie Bock drauf haben, sondern weil die Ressourcen (hier GDDR Speicher) für RTX Karten fehlen. Warum sollen sie Chips produzieren, die nicht nutzbar sind? Ist doch sinnfrei.
 
Grundsätzlich ist es so das einige Modelle tatsächlich schlechter verfügbar sind als andere.
Aktuell ist das aber eher bei der 5090 so. Ab den den Gerücht etwas dran ist, wird sich in den nächsten Tagen zeigen.
 
Ich schätze aufgrund der Speichersituation werden wir ne längere Zeit nicht mehr so günstig wie aktuell an Grafikkarten rankommen.

Krass das sagen zu müssen, wo die gehobene Klasse in Form einer 5070 Ti knapp 800 € kostet.
Die 2070 Super, die dafür weichen musste, hat vor 5 Jahren hat noch um die 530 € gekostet.
Die 5070 war wegen ihrer 12 GB keine Option und die 5080 zu wenig Mehrleistung für den Aufpreis.

Klar, wer auf diverse Nvidia-exklusiven Features verzichten kann, kann auch 200 € weniger ausgeben und zu einer 9070 XT greifen. Mir waren die aber wichtig.
 
lynx007 schrieb:
Ich wusste nach Crypto :freak:, nach Corona:freak: , ich mache alles richtig wen ich mir die Asus Prime 9060xt16gb für 329€ schieße!
Hatte mir vor paar Monaten fast eine vierte 9060XT geholt bei den Preisen :D Die Karten sind einfach zu gut bei den Preisen^^ P/L unschlagbar.
Jetzt ist die Speicherkrise angebrochen und das dauert bis Ende 2028 laut News.
 
crustenscharbap schrieb:
Ich sehe es positiv. Mein PC mit Ryzen 5600 und RTX 4060 und 32GB DDR4 RAM wird so noch lange Dienste erweisen.
Özil schrieb:
mein PC reicht noch 3-4 Jahre, alles entspannt hier

dann hoffe ich, dass euch kein Defekt ereilt

Rukizz schrieb:
möglicherweise keine neuen Grafikkarten bis 2027 oder gar 2028? 🥲
Portal501 schrieb:
Ich denke, wir können froh sein, wenn Anfang 2027 die 6000er-Karten kommen.

falls der KI Hype anhält, ...
bin sehr gespannt, wie das mit dem GPU Markt weitergeht
(Interesse der Hersteller am Consumer Markt, Verfügbarkeit, Preisentwicklung)

"Der Vorsprung (der 5090) im 450-Watt-Duell schrumpft auf 17 Prozent zusammen."
https://www.computerbase.de/artikel/grafikkarten/geforce-rtx-5090-leistung-weniger-tdp.91156/

vielleicht kommen "nur" Karten mit KI Optimierung und angepassten KI Chips
also besseres DLSS upscaling und MFG und nicht unbedingt "mehr" (Raster)Leistung

mehr als die 575 W kommt hoffentlich nicht, die 800W von Asus bleiben hoffentlich ein Exot

melbar79 schrieb:
Oder manche beenden das Hobby Gaming und wenden sich anderen Dingen zu....
MalWiederIch schrieb:
Wenn man vorher wie im von dir zitierten Kommentar eine 90er Grafikkarte gekauft hat? Dann kauft man eher eine Stufe niedriger, da werden die wenigsten direkt aussteigen, nur da man sich nicht mehr das Beste leisten kann …

ein Bekannter hat sich neulich ne 5070Ti gekauft, zockt damit FHD und ist zufrieden
wenn die 60er und 70er 100 oder 200 Euro mehr kosten, ist damit das Hobby nicht obsolet, man kauft vielleicht ein bisschen später neu oder eine PS / Steam Machine / Switch
 
  • Gefällt mir
Reaktionen: MalWiederIch
Zurück
Oben