Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News5.000-Watt-GPUs: Mit IVR ist das möglich, glaubt Intel
Der umfangreiche Programmplan der im Februar stattfindenden ISSCC 2026 hält so einige interessante Dinge bereit. Mit dabei auch, wie man 5.000-Watt-GPUs realisiert. Das sagt auch nicht irgendwer, sondern ein hochdekorierter Intel-Fellow, der seit über 25 Jahren bei Intel tätig ist.
@danyundsahne
Nicht unbedingt, wenn Blau und Grün zusammenarbeiten profitiert Grün sicher iwie davon. Aber ich finde, wir brauchen eher dringendst neue Technik in Sachen Strom generieren, sonst ist bald dunkeltuten angesagt.
Wenn die Effizienz trotzdem stimmt ist das eine feine Sache.
Falls die Hersteller die Leistung pro GPU dadurch verdoppeln können, werden sie die Bedarf vielleicht irgendwann decken können und freie Kapazitäten heißt es ist wieder Platz für Gaming Karten.
Absoluter Schwachsinn. Wir entwickeln uns in einer Richtung wegen AI-Slop zu noch mehr Verbrauch. Eine Zeitlang war es so das man versucht hat Hardware zu Optimieren um eben weniger Energie zu verschwenden für die gleiche Leistung.
Unsere Resourcen sind Endlich und wir sollten endlich lernen damit besser umzugehen. Aber da bin ich wohl zu fest in meiner Star Trek Welt gefangen in dem man weg von Kapitalismus, zu einem Gemeinsem Sinn geht und Gemeinsam an neuen Sachen Forscht.
Nein, man überlegt sich sogar eigene AKWs zu bauen nur für KI-Rechenzentren.
Versteht mich nicht Falsch, KI hat absolut seine Berechtigung. Gerade meinen Linux Umstieg hat es verdammt vereinfacht da ich einfach Fehler ziemlich schnell Analysiert kriege wo ich davor Stunden mich in Foren, Artikeln einlesen musste, für KEINE Antwort oder Lösung teilweise.
Wieso sollten sie?
Achtung, nur weil die absolute Leistungsaufnahme steigt, heißt das nicht, dass die Effizienz sinkt. Hier geht es ja um Serverhardware und insbesondere dabei spielt Integration eine riesige Rolle. Leichtestes Beispiel findet man in der aktuellen EPYC-Bauweise: Es ist besser, einen EPYC mit doppelt so vielen Speicherkanälen, doppelt so vielen CCDs und doppelt so hoher TDP zu haben als ein DualSocket-System.
Das gleiche gilt aber auch für künftige Servergrakas mit Massen an Chiplets.
Das ist doch eh alles eine Frage der Energiedichte...
5kW ist Pillepalle zu den 23kW die Cerebras mit dem WSE-3 Chip verbrät.
Das Teil hat allerdings nur den einen Chip auf 15U, also kommt mit Netzwerk nicht auf über vielleicht 60-80kW pro Rack. Dagegen will nvidia in naher Zukunft schon 600kW pro Rack brauchen...
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Na ja, wenn Intel uns hier schonmal vorwarnen will, was uns erwartet, dann ist das gut gelungen. Leider kann man die Abwärme nur mit einer Warmwasserspeisung
oder mit Wärmepumpen verwerten. Für eine Dampferzeugung um Turbinen zu speisen, die die Eigenversorgung ermöglicht ,ist das Wasser nicht heiß genug.
Wenn ich das richtig in Erinnerung habe, machen die das in den Serverfarmen von Hetzner schon länger so.
aber wie war das ki datacenter nicht anschalten können weil nich genug strom da is? ja was macht man da am besten? genau teile bauen die noch mehr brauchen...