Es geht nicht darum, dass mit neuen Chips bessere Ausgaben erzielt werden, sondern dass z.B. pro Token weniger Energie verbraucht wird. Ein Ryzen 9950X bringt ja bei der Addition von 1+1 auch kein besseres Ergebnis zustande als ein Pentium 4 3200 EE - er verbraucht für die Addition aber nur einen Bruchteil der Energie.Kadett_Pirx schrieb:erstmal ist es mehr pro Chip und wieviel besser als bisherige Chips kann den Rubin die anstehenden "KI"-Aufgaben lösen?
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Angebliche Packaging-Probleme: Nvidia Rubin Ultra reizt CoWoS-L von TSMC aus
- Ersteller Volker
- Erstellt am
- Zur News: Angebliche Packaging-Probleme: Nvidia Rubin Ultra reizt CoWoS-L von TSMC aus
Kadett_Pirx
Lieutenant
- Registriert
- Nov. 2007
- Beiträge
- 751
unwahrscheinlich bei der Gigantomanie, die in dem Bereich betrieben wirdTeeKayEV schrieb:Es geht nicht darum, dass mit neuen Chips bessere Ausgaben erzielt werden, sondern dass z.B. pro Token weniger Energie verbraucht wird. ...
ThirdLife
Captain
- Registriert
- Aug. 2019
- Beiträge
- 4.049
Ich bezweifle stark, dass irgendein Chip der RTX 6000er jenseits der 858mm2 in N3 kommen wird und schon gar keine Multi-Dies auf einem Interposer.Nighteye schrieb:Kein wunder das immer mehr Leaker sagen, 3nm RTX 6000 für Gamer kommt evtl erst 2028.
Ganz schöne durststrecke, von 2022 bis 2028 den gleichen Prozess für RTX GPU,s bei Nvidia.
Aber mit entsprechender Leistungssteigerung und somit Effizienz, oder nicht?dodolein schrieb:Bei diesem Design ist mit bisher nie gesehenem Stromhunger dieser Grafikkarten zu rechnen.
Laut Toms Hardware könnte eine einfache Rubin-GPU um die 2 kW TDP haben, Rubin Ultra dann ca. 3,5 kW.
Für mich liest sich das Ganze auch wie: "Macht mal hinne, TSMC, wir haben schon das nächste in der Schublade, hört auf zu bremsen!" Die nächsten Jahre werden weiter interessant bleiben, sofern sich die Menschheit nicht vorher das Klo runter spült.
Du willst es offenbar nicht verstehen. Möglich, dass die leistungsfähigere Hardware genutzt wird, um mehr Token zu verarbeiten. Aber keiner schafft sich für Millionen Dollar ein neues Nvidia Rack an, das pro Token mehr Energie verbraucht als das alte. Welchen Sinn sollte das haben? Energie ist derzeit der limitierende Faktor, nicht die Rechenleistung.Kadett_Pirx schrieb:unwahrscheinlich bei der Gigantomanie, die in dem Bereich betrieben wird
Chismon
Fleet Admiral
- Registriert
- Mai 2015
- Beiträge
- 10.361
Das würde zumindest zur nVidia Strategie passen, denn begrenzte Verfügbarkeit wurde von nVidia CEO Huang doch vor kurzem noch als positiv (für sein Unternehmen) gefeiert.ZeroCoolRiddler schrieb:Es wird nur knappe Stückzahlen geben.
Diese werden sehr viel teurer verkauft?
Zuletzt bearbeitet:
TeeKayEV schrieb:Energie sind Wattstunden, Leistung sind Watt. Ein Chip mit 3000 W Leistungsaufnahme, der für 1s läuft, um eine Berechnung durchzuführen, "verballert" absolut weniger Energie als ein Chip mit 300 W Leistungsaufnahme, der für die gleiche Berechnung eine Minute benötigt.
Wenn Du das Ding dann die restlichen 59s stilllegst, schon. Aber das wird natuerlich nicht gemacht, sondern es wird weiterhin mit Vollstrom betrieben. Und es verbraucht daher ueber jeden beliebigen Zeitraum 10 mal soviel wie der kleinere Chip.
Alternativ, wenn man 60 von den 300W-Chips mit einem 3000W-Chip ersetzen wuerde, dann koennte man von hoeherer Effizienz reden. Aber das passiert ja nicht, stattdessen werden 60 300W-Chips durch 100 3000W-Chips ersetzt (oder die einfach dazugestellt).
Darum ist es sehr viel ökonomischer, bei z.B. Folding@Home eine 600 W RTX 5090 zu nutzen als eine 160 W RTX 2060.
Am oekonomischsten ist es, Folding@Home gar nicht laufen zu lassen. Und wenn man es auf einer 600W-Grafikkarte Laufen laesst, braucht es fast vier mal soviel wie auf einer 160W-Karte. Was soll daran "oekonomischer" sein, ausser fuer den Energieversorger?
Zuletzt bearbeitet:
Ist halt auch eine Frage der Perspektive.
Wenn der Bedarf an Leistung abgedeckt wird kann man sparsamer werden .....aber solange nur Aufgestockt wird geht der Energieverbrauch durch die Decke . Ob das gut oder schlecht ist muss jeder für sich entscheiden .Ich bin dafür dass die Gratis LMs für Hinz und Kunz weg müssen, aber OK , solange sie meinen Pensionsfonds nicht in diese "Start-ups" schmeißen....
Wobei , wenn jetzt wirklich noch alles und jeder zum zocken beginnt , kannst eh bald gute Nacht sagen 😒
Wenn der Bedarf an Leistung abgedeckt wird kann man sparsamer werden .....aber solange nur Aufgestockt wird geht der Energieverbrauch durch die Decke . Ob das gut oder schlecht ist muss jeder für sich entscheiden .Ich bin dafür dass die Gratis LMs für Hinz und Kunz weg müssen, aber OK , solange sie meinen Pensionsfonds nicht in diese "Start-ups" schmeißen....
Wobei , wenn jetzt wirklich noch alles und jeder zum zocken beginnt , kannst eh bald gute Nacht sagen 😒
Kadett_Pirx
Lieutenant
- Registriert
- Nov. 2007
- Beiträge
- 751
Immer verstehen nur die anderen nichts... Quelle? Es werden erstmal weltweit "KI-Rechenzentren" (die "dank" der Auslegung der nV-Chips zu nichts anderem sinnvoll zu gebrauchen sind) noch und nöcher hochgezogen.TeeKayEV schrieb:Du willst es offenbar nicht verstehen. ....Energie ist derzeit der limitierende Faktor, nicht die Rechenleistung.