News Hopper & Lovelace (RTX 4000): Nvidias Next-Gen-GPUs sollen auf TSMCs N5-Prozess setzen

Gamefaq schrieb:
450W? Da kommst nicht mit aus aktuell soll 600W Standard werden! Sprich die Nächste Generation (nicht der Refresh nun!) rechnet Intel selbst schon mit 1200 Watt Netzteilen die aber PEAK 2400 Watt schaffen können sollen damit die Netzteile NICHT Notabschalten. Igor hat dazu ein Video gemacht der zeigt wo der Irrsinn ähh die Reise hingehen wird und warum.
Das wird dann interessant für Nordamerika, mit ihren 120V@15A ist da bei 1,8kW Ende - das ist bisher auch der Grund, warum PC-Netzteile meist bei 1600W enden - das ist das Maximum, was da drüben an einem normal abgesicherten Schaltkreis geht.

Für sowas wie Trockner haben die da dann manchmal spezielle "Dryer outlets", die dann 2 120V Phasen haben (https://www.thespruce.com/3-and-4-wire-dryer-receptacles-1152226) und dementsprechend die bei uns üblichen ~3,6kW bieten.

Mehr-Phasen-Strom für den PC. Bekloppte Zeiten :D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: bad_sign
Autokiller677 schrieb:
Das wird dann interessant für Nordamerika, mit ihren 120V@15A ist da bei 1,8kW Ende
Na irgendwie bekommen die ihre 30.000 Weihnachts Glühbirnchen am Haus auch betrieben ohne dass das Netz abraucht. :)
 
Vermutlich halt nicht alle an einer Sicherung :D

Und das geht vermutlich auch nicht an jedem Haus, und schon gar nicht in jeder Wohnung. Ein Grund, weshalb es da lange sehr beliebt war, alles möglich mit Gas zu betreiben (Kühlschrank, Wäschetrockner, Herd usw.) und auch heute teilweise noch ist, ist auch, dass viele Bestandsgebäude keinen Netzanschluss haben, der den benötigten Strom z.B. für gute Induktionsherde liefern kann. Daher haben wenn man z.B. auf Reddit oder so fragt viele schlechte Erfahrungen gemacht (vor allem: "super slow") und schwören weiter auf Gas. (Gut, gibt auch einige, die einfach noch nie einen Induktionsherd gesehen haben, und E-Herd nur mit alten Stahlplatten verbinden, die total träge sind... da macht kochen wirklich wenig Spaß)
 
Zuletzt bearbeitet:
ETI1120 schrieb:
Greymon55 schätzt wie folgt
AD102 (450 ... 650) W
Navi 31 (350 ... 550 ) W
Den Range könnte sich auch meine Oma ausgedacht haben. 650? Dann direkt mit 2 von den neuen 600W Steckern?
Den oberen Bereich halte ich eher für unwahrscheinlich. Hüben wie drüben.
Wobei ich es Nvidia zutrauen würde, nur um wenigstens 1% vorne zu liegen wirklich bis ans Ende zu gehen wenn nötig.
Normalerweise würde ich N31 nicht über 450 sehen. Dafür aber schon mit sehr hoher Grafikleistung.
controlokk schrieb:
Gerade Raytracing in Echtzeit sieht für mich nach einer Machbarkeitsstudie aus. Wer eben will verbrennt seinen Strom dafür.
RT ist auch eigentlich zu viel mehr Nutze als ein paar spiegelnde Flächen, Sonnenstrahlen und Schatten.
Soundeffekte und physikalischer SchnickSchnack sollten sich damit auch prima bewerkstelligen lassen.
Ich denke das die Entwickler noch ein bisschen brauchen werden um für die sich bietenden Möglichkeiten das richtige Gefühl zu entwickeln.
Ich brauche jedenfalls keine Hochglanzspiele. Schön, wenn das einfach nur natürlich rüber kommt.
 
  • Gefällt mir
Reaktionen: danyundsahne
@Summerbreeze
650 sind 600W aus dem PCIe 5 Stecker und 50W (von max 60W, 12V 5A) aus dem PCIe Slot
 
Neue Gen Stromschleudern und das wo bereits von der realen Gefahr div. Blackouts gesprochen wird.

Die Atommeiler Lobby wird es freuen. 🤔
 
Ein Großteil der kommentierenden schiebt mal wieder Panik wegen dem Verbrauch des Topmodells. Kino wie immer.

Die Effizienz wird ihren üblichen 35-65% zulegen und die Karten müssen nicht so viel ziehen. Die kleineren schon garnicht.

Da hier gleich den Untergang des PC gamings heraufzubeschwören ist nicht nur vermessen Sondern auch schlicht falsch.

Schaut einfach bei der Performance Pro Watt und dem Spitzenverbrauch genau hin und seid in der Lage eine passende GPU auszuwählen. Das ist nicht schlimm das darf man erwarten
 
  • Gefällt mir
Reaktionen: bensen, jemandanders und LamaMitHut
TSMCs kommende Auslastung mit:

- Apple in 5nm
- nVidia in 5nm
- AMD in 5 und 6 nm
- Intel in 6 nm

laesst leider nichts gutes in Sachen Verfuegbarkeit und damit Preise erhoffen.

Ob weiterhin 7nm Karten von AMD und nVidia gefertigt und verkauft werden neben den Next Gen-dGPUs, einfach wegen der ansonsten massiv unterdimensionierten Verfuegbarkeit und der weitere Kostenexplosion?

Warten wir es ab ;) ...
 
Chismon schrieb:
  • Apple in 5nm
  • nVidia in 5nm
  • AMD in 5 und 6 nm
  • Intel in 6 nm

laesst leider nichts gutes in Sachen Verfuegbarkeit und damit Preise erhoffen.
Und eventuell Anfang 2023 auch Battlemage in 5nm. Dann haben wir alle 3 GPU Hersteller auf demselben Node, yay...
 
  • Gefällt mir
Reaktionen: Chismon
PS828 schrieb:
Ein Großteil der kommentierenden schiebt mal wieder Panik wegen dem Verbrauch des Topmodells. Kino wie immer.

Die Effizienz wird ihren üblichen 35-65% zulegen und die Karten müssen nicht so viel ziehen. Die kleineren schon garnicht.

Wie erklärst du dir dann die höheren Anforderungen an die Netzteile, die mit ATX 3.0 beantwortet werden sollen? Intel gibt an die Netzteil-Hersteller Vorgaben, bzw. Orientierungspunkte und die basteln schon an 2400W NTs. Ohne Grund passiert das nicht einfach mal so. Alle gehen von höheren Verbrauchswerten aus. Oder meinst du, die NTs werden in erster Linie für Profi-Miner entwickelt und hergestellt? Na ja, wäre aber auch nicht ganz abwegig....die kaufen alles auf, was ihren Mining-Aktivitäten zugute kommen würde.
 
knoxxi schrieb:
Na irgendwie bekommen die ihre 30.000 Weihnachts Glühbirnchen am Haus auch betrieben ohne dass das Netz abraucht. :)

:daumen:
 
  • Gefällt mir
Reaktionen: knoxxi
@5hred Nichts verstanden. Absolut nichts.

Spezifikation ist was anderes als die tatsächlich benötigte Leistung. Und wie immer muss für das Maximum spezifiziert werden.

Jede GPU Generation wird wieder viele Chips unterschiedlicher Größe haben und die werden nicht alle 600W brauchen. Im Gegenteil. Bei gleicher Leistung wird immer weniger Energie verbraucht.

Warum dann überhaupt die Topmodelle zu solchen Säufern machen? Ganz einfach. Der Kunde will es nicht anders. 8k 120FPS, am besten noch für 4,90€

Da lässt der Hersteller nicht die 15% Leistung Liegen die er bei maximaler Effizienz der Karte Verlieren würde. Das darf der Kunde wenn er es wünscht selbst Einstellen wie er es möchte
 
  • Gefällt mir
Reaktionen: bad_sign, jemandanders und LamaMitHut
Enigma schrieb:
Autsch! Das ist die Blutkrätsche für AMD. Hoffe, die können sich irgendwie davon erholen.
Was für ein Blödsinn, die haben schon längst ihre Kapazitäten gebucht.
 
Warum gleich so hoch-aggressiv? Das nicht jede GPU gleich so viel ziehen wird, ist klar.
Ich wollte nur darauf hinweisen, dass die Tendenz dahin geht, dass Hardware mehr verbrauchen wird.
Effizienz hin oder her, der Verbrauch wird steigen. Und die Industrie bereitet sich auf die Anforderungen der Zukunft vor, indem neue Standards wie ATX 3.0 ins Leben gerufen werden. Nicht grundlos.
 
AMD prescht vor und muss daher den 6nm-Fertigungsprozess bei TSMC wählen und setzt sich weit an die Spitze. NVIDIA rückt dann zum 5nm-Fertigungsprozess bei TSMC nach und kontert. AMD wechselt dann zum 3nm-Fertigungsprozess bei Samsung...

So oder so ähnlich kann es laufen. 😉
 
Summerbreeze schrieb:
Den Range könnte sich auch meine Oma ausgedacht haben. 650? Dann direkt mit 2 von den neuen 600W Steckern?
Dann wären wir bei 1200 W
650 W: Stecker + PCIe

Summerbreeze schrieb:
Den oberen Bereich halte ich eher für unwahrscheinlich. Hüben wie drüben.
Die Performance soll ja bei Nvidia und AMD gewaltig gesteigert werden.
Die Anzahl der Shader steigt stark an, die Taktfrequenz steigt auch.
Da sind die Effizienzsteigerungen, die sich aus dem Prozesses ergeben, schnell aufgefressen.

Und es soll ja ganz toll sein für 5% mehr Leistung den Verbrauch um 100 % zu erhöhen.
Und deshalb hat Greymon55 wohl die obere Grenze bei Nvidia am Maximum der ihm bekannten Steckerkonfiguration angesetzt.

Summerbreeze schrieb:
Wobei ich es Nvidia zutrauen würde, nur um wenigstens 1% vorne zu liegen wirklich bis ans Ende zu gehen wenn nötig.
Normalerweise würde ich N31 nicht über 450 sehen. Dafür aber schon mit sehr hoher Grafikleistung.

Da ist Nvidia nicht alleine. Da gab es Vega und aktuell die 6700XT. Bei der 6700XT musste AMD gewaltig an der Taktschraube drehen, um die zu wenigen CUs zu kaschieren.
 
danyundsahne schrieb:
Jetzt überlegt mal TSMC bekommt den N3 nicht richtig zum Laufen. Oder irgendein Folgeprozess in X Jahren...dann wirft das jede Produktveröffentlichung aller Hersteller durcheinander. Das wäre ein SuperGAU.

Also ein SuperGAU ist das sicher nicht. TSMC hat in der Vergangenheit schon oft Prozesse erst deutlich verspätet oder auch mal gar nicht (20nm) auf die Kette bekommen. Dafür wurde in letzterem Falle dann eben der 28nm Prozess weiter optimiert. Oder siehe Intel als Extrembeispiel, die wegen der Probleme mit 10nm satte sechs Jahre auf 14nm festhängen mussten und trotzdem ein Rekordquartal nach dem nächsten hingelegt haben. Das ist alles überlebbar. Keine Sorge.

Gerüchtweise wird ja der N3 Prozess möglicherweise wirklich nicht fertig für die Massenproduktion von Apple für Produkte im Q3/2022, aber da gibt es offenbar schon Pläne auf so eine Art N5+ oder N4 auszuweichen. Das wird alles sicherlich ohne größere Dramen über die Bühne gehen.
Die Welt dreht sich nicht um die paar weinenden Kiddies, die immer das Neueste haben müssen.

Was die Zukunft anbelangt: Je kleiner und komplexer die Nodes (GAA), desto mehr müssen die Foundries, als auch die Produzenten, damit rechnen, dass Plan B zum Zuge kommt. Im Gegensatz zur Politik (bräsige Merkel-Alternativlos-Politik) sind Wei, Cook, Huang, Su & Konsorten sehr intelligente Menschen, die immer alle Szenarien durchdenken und vorausschauend planen. Die haben immer einen Plan B. Das ist in der wirtschaftlichen Projektplanung quasi Grundkursniveau, dass man immer Alternativen in petto hat.
 
Na immerhin weiß ich wer die Chips fertigt, die ich nicht erwerben kann zu menschlichen Preisen. ^^
 
Colindo schrieb:
Im Artikel steht doch, dass Apple sehr wahrscheinlich nächstes Jahr auf N3 zieht. Deren Belegung von N5 ist in dem Zusammenhang also irrelevant.

DevPandi schrieb:
Und wo ist das bitte die Blutkrätsche?

MasterAK schrieb:
Vorher gab es schon ne Blutgrätsche von Intel. Die lassen ja auch XE bei TSMC fertigen.

Maxxx800 schrieb:
Was für ein Blödsinn, die haben schon längst ihre Kapazitäten gebucht.
Zugegeben, etwas polemisch. Ich hätte halt nicht erwartet, dass NVidia von Samsung weggeht. Damit hat man noch einen Player (neben Intel) mehr, der zum Höchstpreis Wafer kaufen möchte. Das ist schlecht für AMD. AMD hat sich zum Ziel gemacht, den Fertigungsvorteil zu nutzen, um die Bewerber zu schlagen. Das ist nun nicht mehr möglich.
 
PS828 schrieb:
@bensen stimmt zwar. Aber ich rechne dennoch mit 700 mm^2 für den größten Chip. Nvidia muss mithalten wenn AMD die chiplets zum laufen bringen sollte.

Und die haben sich in den letzten Generationen nicht gerade zurückgehalten
Für Datacenter sicherlich, da ist das kein Problem, da die Marge riesig ist.
Der größte GeForce Chip wird ganz sicher deutlich kleiner werden.
N5 hat eine fast 3x so hohe Transistordichte im Vergleich zu 8LPP.
Das reicht für einen ordentlichen Performancesprung.
 
Zurück
Oben