News 5.000-Watt-GPUs: Mit IVR ist das möglich, glaubt Intel

Volker

Ost 1
Teammitglied
Registriert
Juni 2001
Beiträge
19.677
Der umfangreiche Programmplan der im Februar stattfindenden ISSCC 2026 hält so einige interessante Dinge bereit. Mit dabei auch, wie man 5.000-Watt-GPUs realisiert. Das sagt auch nicht irgendwer, sondern ein hochdekorierter Intel-Fellow, der seit über 25 Jahren bei Intel tätig ist.

Zur News: 5.000-Watt-GPUs: Mit IVR ist das möglich, glaubt Intel
 
  • Gefällt mir
Reaktionen: aid0nex, schneeland, knoxxi und 3 andere
NV hasst diesen Trick! :D
 
  • Gefällt mir
Reaktionen: phanter, mr.meeseeks. und ILoveShooter132
@danyundsahne
Nicht unbedingt, wenn Blau und Grün zusammenarbeiten profitiert Grün sicher iwie davon. Aber ich finde, wir brauchen eher dringendst neue Technik in Sachen Strom generieren, sonst ist bald dunkeltuten angesagt.
 
  • Gefällt mir
Reaktionen: flo.murr, lord_mogul, Rockstar85 und 2 andere
Das wäre toll - aber mein neu gekauftes 1000W Netzteil wäre dann schon wieder zu schwach !
Neeeiiiinnnnnnnn.....
 
  • Gefällt mir
Reaktionen: TomausBayern, Mcr-King und Topas93
Mir fällt dabei nur ein: Nicht alles was technisch machbar ist, ist auch sinnvoll.
 
  • Gefällt mir
Reaktionen: Konsumkind, lord_mogul, Lynchtactical und 21 andere
Intel ist doch bekannt dafür viel WATT zu verbrauchen bei wenig Leistung. Also ist für die diese Idee nicht so verkehrt.
 
  • Gefällt mir
Reaktionen: Konsumkind, aid0nex, Buchstabe_A und 6 andere
Wenn die Effizienz trotzdem stimmt ist das eine feine Sache.

Falls die Hersteller die Leistung pro GPU dadurch verdoppeln können, werden sie die Bedarf vielleicht irgendwann decken können und freie Kapazitäten heißt es ist wieder Platz für Gaming Karten. :D
 
  • Gefällt mir
Reaktionen: lord_mogul
Und NVIDIA in 5 Jahren:

Gemini_Generated_Image_t88zlmt88zlmt88z.jpg
 
  • Gefällt mir
Reaktionen: Unti, XRJPK, verbaliBerlin und 51 andere
Absoluter Schwachsinn. Wir entwickeln uns in einer Richtung wegen AI-Slop zu noch mehr Verbrauch. Eine Zeitlang war es so das man versucht hat Hardware zu Optimieren um eben weniger Energie zu verschwenden für die gleiche Leistung.

Unsere Resourcen sind Endlich und wir sollten endlich lernen damit besser umzugehen. Aber da bin ich wohl zu fest in meiner Star Trek Welt gefangen in dem man weg von Kapitalismus, zu einem Gemeinsem Sinn geht und Gemeinsam an neuen Sachen Forscht.
Nein, man überlegt sich sogar eigene AKWs zu bauen nur für KI-Rechenzentren.

Versteht mich nicht Falsch, KI hat absolut seine Berechtigung. Gerade meinen Linux Umstieg hat es verdammt vereinfacht da ich einfach Fehler ziemlich schnell Analysiert kriege wo ich davor Stunden mich in Foren, Artikeln einlesen musste, für KEINE Antwort oder Lösung teilweise.
 
  • Gefällt mir
Reaktionen: kruzoe, Konsumkind, Fritzler und 16 andere
Wie schon angemerkt, wenn das mit der Effizienzstimmt, sollte man mal drüber nachdenken, als Schwimmbadbetreiber ins Servergeschäft zu gehen.

Die Hitze der Komponenten ins Badewasser überführen und Rechenleistung bereit stellen, wäre doch win-win hehe.
 
  • Gefällt mir
Reaktionen: lord_mogul, aid0nex, Cohen und 5 andere
danyundsahne schrieb:
NV hasst diesen Trick! :D
Wieso sollten sie?
Achtung, nur weil die absolute Leistungsaufnahme steigt, heißt das nicht, dass die Effizienz sinkt. Hier geht es ja um Serverhardware und insbesondere dabei spielt Integration eine riesige Rolle. Leichtestes Beispiel findet man in der aktuellen EPYC-Bauweise: Es ist besser, einen EPYC mit doppelt so vielen Speicherkanälen, doppelt so vielen CCDs und doppelt so hoher TDP zu haben als ein DualSocket-System.

Das gleiche gilt aber auch für künftige Servergrakas mit Massen an Chiplets.
 
  • Gefällt mir
Reaktionen: N0Thing, stefan92x, WauWauWau und eine weitere Person
Volker schrieb:
wie es am Ende final gelöst wird, steht oft noch auf einem anderen Papier
oder in einem anderen Paper
:P
 
  • Gefällt mir
Reaktionen: willriker, Alphanerd und Volker
Das ist doch eh alles eine Frage der Energiedichte...

5kW ist Pillepalle zu den 23kW die Cerebras mit dem WSE-3 Chip verbrät. :stacheln:

Das Teil hat allerdings nur den einen Chip auf 15U, also kommt mit Netzwerk nicht auf über vielleicht 60-80kW pro Rack. Dagegen will nvidia in naher Zukunft schon 600kW pro Rack brauchen...
 
Macusercom schrieb:
 
  • Gefällt mir
Reaktionen: aid0nex, Mcr-King, coral81 und 3 andere
Ich musste direkt an lotw denken...

Ich bin KI-Gandalf und das ist meine 5000 W-KI-Machine!
 
  • Gefällt mir
Reaktionen: aid0nex, Rockstar85, Mcr-King und 6 andere
Na ja, wenn Intel uns hier schonmal vorwarnen will, was uns erwartet, dann ist das gut gelungen. Leider kann man die Abwärme nur mit einer Warmwasserspeisung
oder mit Wärmepumpen verwerten. Für eine Dampferzeugung um Turbinen zu speisen, die die Eigenversorgung ermöglicht ,ist das Wasser nicht heiß genug.
Wenn ich das richtig in Erinnerung habe, machen die das in den Serverfarmen von Hetzner schon länger so.
 
1764264232678.png


aber wie war das ki datacenter nicht anschalten können weil nich genug strom da is? ja was macht man da am besten? genau teile bauen die noch mehr brauchen...
 
  • Gefällt mir
Reaktionen: Cr4y
Macusercom schrieb:
Hab ich auch gerade gedacht.
Brauchst bald ein Kraftstromanschluss für ein Gaming PC.

Dir Richtung gefällt mir immer weniger.....wo Pc-Gaming hingeht.

Ich bin zum Glück mehr oder weniger weg davon.
 
Nur eine Frage der Zeit bis diese Id..... die Sonne an Zapfen werden...
 
  • Gefällt mir
Reaktionen: Rockstar85 und Metalveteran
Zurück
Oben