News „Ada Lovelace Next“: Die nächste GeForce-Generation erscheint erst 2025

Fred_VIE schrieb:
Warum sollte NV sich auch beeilen, wenn AMD nichteinmal aufschließen kann?

Endlich Zeit die Produktion zu optimieren und die Kunden noch mehr auszubeuten!

Gelegentlich soll es hilfreich sein, wenn man von Artikeln, die man meint kommentieren zu müssen, mehr als nur die Überschrift liest ;) .

Im Artikel hättest Du lesen können, dass es nichts mit "beeilen" zu tun hat, sondern dass nVidia (und genauso AMD) an die Verfügbarkeit der jeweiligen Prozesse bei TSMC gebunden sind.

Die Massenfertigung der 'node', die für die nächste Generation an GPUs benötigt wird, startet nun mal erst so spät, dass es vor 2025 rein faktisch gar nicht möglich ist, schon neue Produkte anzubieten.

Wenn hier überhaupt jemand das theoretische Potential zum Beeilen hätte, dann wäre das TSMC, aber dieses Potential dürfte mehr als ausgeschöpft sein, da TSMC mit dem 3nm Prozess einige Hürden und Probleme zu überwinden hatten. Die werden froh sein, dass sie es nun überhaupt noch so "bald" auf die Kette bekommen werden.

Was nVidia angeht, so ist es allerdings durchaus richtig, dass sie in einer äußerst komfortablen Marktsituation sind.
Sie haben derzeit 84% Marktanteil. AMD sind bei 12%. AMD haben das Kunststück vollbracht trotz viel Geschimpfes und Gemotzes über nVidia's Preispolitik seit Q1/2022 ihren Marktanteil von 25% auf 12% zu HALBIEREN. Gratulation an AMD. Muss man auch erst mal schaffen...
Dagegen haben nVidia von 75% im Q1/2022 auf zunächst sogar 88% Ende 2022 und nun die besagten 84% zugelegt.

Da ist dann unabhängig davon, dass TSMC eh nicht schneller "liefern" könnte, tatsächlich kein Grund zu überstürzter Eile angesagt.

Übrigens, wer Hoffnung auf fallende Preise hat(te): Es wird damit gerechnet, dass TSMC bis zu $25,000 pro 2nm Wafer verlangen wird.
Wer sich die Tabelle in dem verlinkten Artikel mal ansehen mag: Wir haben Ada Lovelace in 2022 bekommen. Da kostete der 5nm Wafer (4N ist ein 5nm Prozess) $14,105. Im Jahre 2025 wird der 3nm Wafer $18,455 kosten.

Das sind also alleine schon mal wieder gute 25% Preissteigerung nur beim Wafer.
Also wenn nicht irgendwo noch wahre Wunder an Einsparpotential gefunden werden, dann wird die RTX 5000 Reihe die Serie an Preissteigerungen nahtlos fortsetzen...
 
  • Gefällt mir
Reaktionen: 1994, Raptor85, iron_monkey und 2 andere
kratos31 schrieb:
Davon abgesehen hat dies ein paar betroffen was Unter ein Prozent ausmacht....

Igor und Co haben das schon oft genug thematisiert
Hm, deshalb ist seit Ada Lovelace Marktstart das Problem immer noch nicht geloest und wurde vor kurzem wieder von Igor's Lab aufgegriffen, weil das ja so eine tolle/ausgereifte Sache ist und eben nicht nur auf unsachgerechte Verwendung der Stecker durch Kaeufer/Kunden alleine zurueck zu fuehren ist sondern mangelhafte Qualitaetskontrolle (und somit Mitverantwortung fuer den Salat seitens der Boardpartner und nVidia).

Nur weil es Dich nicht betrifft, heisst das nicht, dass nicht genuegend andere davon betroffen sind und das bei exorbitant teuren Flaggschiffkarten, eine ziemlich schwache bis peinliche Nummer bisher der 12VHPWR-Anschluss bzw. die notwendigen Adapterstecker.
 
  • Gefällt mir
Reaktionen: Recharging
xxMuahdibxx schrieb:
Was wil man denn so viel neues am Ende...

Die aktuelle Generation bei Nvidia ist so breit aufgestellt da deckt man fast alles ab... Außer Low entry... Um die 150-200 Euro..

Am Ende kann man nur "oben" wirklich melken..
Nvidia ist sich inzwischen viel zu schade um diesen Preisbereich zu bedienen. Bei AMD leider nicht anders.

Wahrscheinlich wäre bis 200€ eh nur 1070-Leistung mit 4GB drin und das braucht praktisch niemand, selbst nicht als 75 Watt Version.
 
@Ripcord

Ich denke das hat bei beiden weniger etwas mit "zu schade dafür" zu tun als vielmehr mit immer noch begrenzten Kapazitäten in der Fertigung. Wenn ich "x" Wafer habe und entscheiden muss, welche Chips ich damit fertigen lasse, dann natürlich diejenigen, bei denen die Kasse klingelt.
Besonders bei AMD ist das ja dank ihres breiten Portfolio an CPUs/APUs und GPUs noch mal eine drängendere Problematik als bei nVidia.

Weiterhin ist es bei immer besseren IGP Lösungen inzwischen vielleicht auch tatsächlich fraglich, ob man diesen Bereich wirklich noch bedienen muss. Wie groß ist dieser Markt wohl noch?
Auch die Entwicklung von low end Produkten kostet zunächst mal viel Geld und Zeit und es kann wegen der geringen Roherträge pro verkaufter Karte recht lange dauern bis man die Entwicklungs- und Anlaufkosten inklusive Marketing usw. wieder drin hat.
Scheinbar sehen AMD und nVidia hier keinen großartig attraktiven "business case". Sonst würden sie sich sicher schon darum kümmern. Wo es gutes Geld zu machen gibt, sind diese Firmen nicht weit...
 
  • Gefällt mir
Reaktionen: Raptor85
@Ripcord
Also es gibt schon käufer die sich dafür interessieren würden.Ich wäre so einer .Weil dann ist die Leistung besser als die von meiner gtx 1650.Und wer weis vielleicht kommt ja noch was mit 6 gb Vram und 75Watt als GPU raus.Muss man halt weiter warten.Die rtx 4050 GPUS sind bei Nvidia ja auch noch Geplant.Denke mal diese kommen 2024 raus,weil heuer ist wohl schon GPU Einführung zu Ende.Heuer wird wohl nix mehr neues kommen.Und wenn nicht dann kommen diese vielleicht ja als Refresh raus und da schaut dann vielleicht mehr Leistung dabei raus.Aber auch nicht so viel weil man will ja der RTX 4060 nicht konkurenz machen.Das werden wir also schon noch sehen.Ich hoffe sehr stark daran,ob es so kommen wird,kann ich aber nicht sagen.Es wird die Zeit zeigen.Ich mag die 75 Watt Riege sehr gerne.
 
@RogueSix & latiose88,

da ist was dran. Warten wir mal ob die 4050 mit 75W auskommen kann. Da die 4060 aber schon teilweise über 130W braucht sehe ich einen 75W-Kandidaten schon fast eher bei einer 4030.
 
Hm bei ner 4030 erst mit 75 Watt naja das ist mir zu wenig. Zudem wird diese schlechter als die Gtx 1650 sein. Also dann kann ich echt wohl auf die 4000 Serie verzichten. Dann lieber auf den nachvolger 2025 warten. Und hoffen das das für untere Bereich mehr leistung kommt als es diese gen der Fall ist. Mit ist halt 75 Watt sehr wichtig. Was anderes kann ich also nicht machen. Und weil das so lange der Nachfolger dauert und diese gen nicht so gut läuft, dann hält die gpu auch viel länger wie es aussieht. Habe ich halt positive Zeiten für mich. Ne gute Situation um durch zu halten.
 
@Ripcord warum gab es keine.. 2030... Keine 3030 . . Keine 3010 ...

Reine Office Karten oder wirklich low Budget..

Die Gewinnspanne ist zu klein... Will man nicht..
 
Ripcord schrieb:
Nvidia ist sich inzwischen viel zu schade um diesen Preisbereich zu bedienen. Bei AMD leider nicht anders.
Falsch! Wir Konsumenten tragen die Schuld. Schneller, höher, stärker - koste es, was es wolle.

Wir als Community sollten bis Ende 2024 die Füße stillhalten und die Highend Karten im Regal verrotten lassen. Wenn es sein muss auf dem Gebrauchtmarkt zugreifen.
 
@pitu es geht ja nicht nur um high End...das gesamte Portfolio ist preislich stark nach oben gerutscht.
 
Würde es ehrlich gesagt begrüßen wenn NV ihre Blackwell Generation erst ab 2025 auf dem Markt schmeißt.

Meine 4090 war zwar UVP aber diese war halt sehr hoch wie wir alle wissen und dennoch hätte man von der Karte auch etwas mehr.

Die Spiele orientieren sich ja in erster Linie an den jeweiligen Konsolen und somit könnten die Entwickler auch mal zur Abwechslung mehr für eine Grafikkarte investieren was das „optimieren“ betrifft

Evtl Wunschdenken ^^
 
RogueSix schrieb:
Übrigens, wer Hoffnung auf fallende Preise hat(te): Es wird damit gerechnet, dass TSMC bis zu $25,000 pro 2nm Wafer verlangen wird.
Wer sich die Tabelle in dem verlinkten Artikel mal ansehen mag: Wir haben Ada Lovelace in 2022 bekommen. Da kostete der 5nm Wafer (4N ist ein 5nm Prozess) $14,105. Im Jahre 2025 wird der 3nm Wafer $18,455 kosten.
Entscheidend ist nicht der Preis pro Wafer, sondern der Preis pro Transistor und der wird wieder sinken, was bei GPUs die Voraussetzung für mehr Leistung zum gleichen Preis ist. Die Dichte steigt nämlich bei 3nm und 2nm deutlich mehr als der Waferpreis verglichen mit dem jeweils vorherigen Node.
 
  • Gefällt mir
Reaktionen: 1994
bei der aktuellen Release Politik von denen wundert mich das ehrlich gesagt nicht und erscheint einfach sinnvoll. Es sind Mitte 2023 noch nicht mal alle 4000er Karten auf dem Markt, da braucht man Ende 2024 nicht wieder mit den Nachfolgern kommen wenn man wie bisher mind. 2 Jahres-Zyklus einhalten will. Oder sie hätten es wieder gestaffelt gemacht.
Kann damit leben und finde das eh viel sinnvoller und nachhaltiger, Leistung hat die 4000er en masse, lasst die mal von den Entwicklern richtig auskosten, gefühlt wird ja jedes mal wenn neue Karten erscheinen ja einfach nur noch geschlampt was Optimierung angeht und die zuerst geile Leistung verpufft (ich mein wie viele Titel kamen heuer raus wo ne 4090 plötzlich nicht mehr 4k/60 schaffte, während sie vorher bei beeindruckenderen im 100fps Bereich war)
 
MrHeisenberg schrieb:
Bei gleicher Fertigungstechnik wächst damit die DIE-Size und somit der Preis der GPU für den Endkunden.


Ab einer gewissen Größe benötigt man eben doch neue Belichtungsverfahren, wenn man mehr Transistoren unterbringen will.
Nehmen wir beispielsweise die DIE-Size der 4090, welche bei 609 mm² liegt, dann ist da nicht mehr viel Platz nach oben.
Ich meine, dass das technische Limit irgendwo zwischen 800 und 1000 mm² liegt.
Da kann man also nicht einfach nur "mehr" von allem draufknallen und fertig.

Sieh Dir den Reingewinn von nVidia an und lass uns über Kosten von dies reden.
Der AD107 ist so winzig - wir reden über eine Kantenlänge von gut 12,5mm - dass die Kosten für Entwicklung und processing die reinen wafer- und Belichtungskosten übersteigen dürften.

Ein 300mm wafer hat eine Fläche von ca. 70 600mm². Je kleiner ein Chip ist, desto besser wird diese Fläche auch ausgenutzt (und je größer ein wafer ist...).
Rechnerisch käme man auf 440 Chips der Größe eines AD107.

Wir kennen den exakten yield nicht - der, prozentual, bei kleineren Chips natürlich größer ist - aber sagen wir mal, wir schneiden 350 Chips aus dem wafer.

Ich habe jetzt auf die Schnelle nur eine Quelle für 5nm gefunden, da steht der Preis für einen belichteten wafer von TSMC im "5nm"-Prozess bei 17 000$.
https://www.tomshardware.com/news/t...aled-300mm-wafer-at-5nm-is-nearly-dollar17000

Nach Corona etc gab es Preiserhöhungen und nVidia nutzt einen "4nm"-Prozess, ich meine gelesen zu habe dass nVidia für ihren Prozess ~25 000$ bezahlt.

Umgerechnet "kostet" jeder funktionsfähige die ergo ~71$. Packaging etc lassen das natürlich auf ~100$ steigen, keine Frage.

Der Punkt ist: wie viel teurer wäre ein AD107, wenn er die Transistoranzahl eines AD106 hätte?
Mit seinen 190mm² bietet der AD106 doch deutlich mehr Rechenleistung - nämlich 50% mehr shader/TMUs/ROPs etc.

Kosten: rechnerisch bekommt man etwas über 370 dies, sagen wir mal wir bekommen 300 funktionsfähige dies aus dem wafer.
Dann kostet der die ~83$.

So, natürlich sind die exakten Kosten und der yield nur rough estimates. Wir verwenden aber dieselben Quellen dafür.
Knackpunkt ist dass eine Erhöhung der Rechenleistung um 50% bei einem solch kleinen Chip wie dem AD107 durch Transistoren die Fertigungskosten nicht in neue Sphären katapultiert.
Packaging ist, Pi mal Daumen, gleich teuer, genau wie der Transport. Ob der die jetzt 160 oder 190mm² groß ist erhöht die Kosten pro Chip nicht mal um wenige Dollar in Bezug auf packaging und Transport - wenn überhaupt eine Erhöhung kalkuliert werden muss.

Und wie teuer ist das Plus an Transistoren in der Fertigung?
Einfache Rechnung: 50% mehr Rechenleistung in Form von Transistoren kostet nVidia ca. 17% mehr - bei der Fertigung.

MSRP: 299$ - vor Steuern. Der AD106 kostet 399$.

https://www.guru3d.com/news-story/nvidia-ad107-gpu-the-gpu-for-mainstream-geforce-rtx-4060.html

So sieht man ziemlich gut wo nVidia seinen Gewinn herholt. Die Kunden von nVidia werden seit Jahren zum "runderen" Produkt geködert. In der Fertigung ist die 4060Ti mit 16Gb vielleicht ~50$ teurer als die kleine 4060 - kostet aber 150$ mehr. Transport etc sind für alle Karten ja ziemlich gleich. Der Knackpunkt ist dass die Basiskarte nur "gut genug" sein muss um im Augenblick zu performen, somit verdient nVidia entweder am Upgrade auf die einzig runde Karte - oder direkt an der nächsten Generation.

Das "Limit" bei 800mm² ist nicht technisch, sondern statistisch: auf der Fläche hat man einfach häufiger Ausfälle welche den Chip unbrauchbar machen. Technisch wird auf einem 300mm-wafer die gesamte Fläche von 70 000mm² belichtet. Besser wird das beim Sprung zu 400/450mm² wafern. Da haben wir derzeit aber ein technisches Limit um die produktionsreif zu machen. Besser, um die Wirtschaftlichkeit herzustellen.
Für besondere Nutzung werden durchaus so große Chips belichtet. Die sind eben einfach unverhältnismäßig teuer.
Und hier kommt das Chiplet-Design ins Spiel...

P.S.: Die 4090 habe ich auch explizit ausgenommen. Die hat ihren guten Ruf zurecht. In allen Belangen die beste Karte von nVidia, nicht nur leistungstechnisch sondern auch vom Gegenwert her. Alles darunter ist rip-off.
 
  • Gefällt mir
Reaktionen: schneeland, AI94 und Draco Nobilis
Eine Refresh sehe ich nicht kommen.
Dafür dauert das Release des Lineups bei beiden Herstellern viel zu lange.

Nolag schrieb:
Die Dichte steigt nämlich bei 3nm und 2nm deutlich mehr als der Waferpreis verglichen mit dem jeweils vorherigen Node.
Die Geschwindigkeit eines Grafikchips steigt leider nicht linear mit der Transistorzahl, sondern deutlich darunter.
NVIDIA ist nicht mehr auf Gaming als Markt angewiesen, daher wird man hier auch keinen Anreiz sehen den Preis zu senken. AMD kann nicht gegen halten, dazu müssten diese wissen das Ihre nächste Gen einschlägt und entsprechend genug Wafer anfordern. Da diese auf teilweise 3-5 Jahre voraus gebucht werden müssen ist das ein hohes unternehmerisches Risiko. Da setzt man lieber auf EPYC Server die wie sich auch blendend verkaufen und ebenfalls enorm viel höhere Margen bieten als Consumer Grafikkarten.

Die einzige Gaming Zukunft sehe ich für MCM basierende Grafikkarten.
Aber das dauert wohl noch bis es bei bsp. AMD aus den Kinderschuhen raus ist.
Bis dahin zahlt man beispielsweise bei NVIDIA für <400mm² halt >1k €.
 
Nolag schrieb:
Die Dichte steigt nämlich bei 3nm und 2nm deutlich mehr als der Waferpreis verglichen mit dem jeweils vorherigen Node.
Jedoch wird das mit der steigenden Transistorzahl wieder ausgeglichen, man will ja mehr Leistung bekommen und die kommt nicht nur durch den neuen Prozess.

AD102 - 608mm²
GA102 - 628mm²

Am Ende bleibt die erhebliche Preissteigerung, da TSMC sich weiterhin eine goldene Nase verdienen möchte. Ich rechne bei einer 5090 mit Preisen um 2500-3000€, alles andere wäre schon ein "Schnapper".
 
RaptorTP schrieb:
Vielleicht knobeln sie auch die VRAM Verteilung aus xD ....
Hier der Würfel für die RTX 5060(ti):
acht.jpg
 
  • Gefällt mir
Reaktionen: schneeland, Blackvoodoo und RaptorTP
Chismon schrieb:
Hm, deshalb ist seit Ada Lovelace Marktstart das Problem immer noch nicht geloest und wurde vor kurzem wieder von Igor's Lab aufgegriffen, weil das ja so eine tolle/ausgereifte Sache ist und eben nicht nur auf unsachgerechte Verwendung der Stecker durch Kaeufer/Kunden alleine zurueck zu fuehren ist sondern mangelhafte Qualitaetskontrolle (und somit Mitverantwortung fuer den Salat seitens der Boardpartner und nVidia).

Nur weil es Dich nicht betrifft, heisst das nicht, dass nicht genuegend andere davon betroffen sind und das bei exorbitant teuren Flaggschiffkarten, eine ziemlich schwache bis peinliche Nummer bisher der 12VHPWR-Anschluss bzw. die notwendigen Adapterstecker.
Nochmal richtig informieren...

Es ist Fakt Das das nur seeehr wenige betrifft ein paar hundert....
Auch hier sei gesagt der Fehler konnte nirgends reproduziert werden....
Ergo unsachgemäße Handhabung

Diesen Fakt kannst du nun nicht widerlegen....
Das gleich geht bei molex oder anderen Stecker wenn man diese nicht richtig einsteckt....
 
Haldi schrieb:
Das dürften sich alle 4090 Besitzer jetzt so sagen ^^
Und 2025 kaufen dann die meisten eine 5090.

Ich hoffe das AMD nächste Generation was überzeugendes bringt mit dem ich meine 4090 ersetzen kann.

Vorerst hat die 4090 knapp genügend Leistung für 5120x1440 bei 240Hz.
die 4090 ist, bis auf dem Preis, die neue 1080ti.
Wer eine 4090 hat, der kann getrost die RTX5000er, sowie die RTX6000er Reihe überspringen und bei der RTX7000er Reihe wieder reinschauen.

5120x1440 bei 240Hz? Nischenauflösung mit Nischenfrequenz. Der Sweetspot sowie die Standardauflösung ist nach wie vor 2160 x 1440p bei 144Hz/165Hz oder 4K bei 60Hz. Da ist nunmal der Mainstream.

Bei einer 5090 würdest du trotzdem sagen "Vorerst hat die 5090 knapp genügend Leistung für 4096 × 2560 bei 360Hz"

und bei einer 6090: "Vorerst hat die 6090 knapp genügend Leistung für 8192x4608 bei 480Hz"
 
  • Gefällt mir
Reaktionen: Haldi
Zurück
Oben