News Mikrofluidik: Microsoft vermeldet „Durchbruch“ bei direkter Chip-Kühlung

Jan

Chefredakteur
Teammitglied
Registriert
Apr. 2001
Beiträge
17.285
  • Gefällt mir
Reaktionen: bullit1, eastcoast_pete, schneeland und 18 andere
Klingt spannend und kann auch sicher funktionieren.
 
  • Gefällt mir
Reaktionen: Restart001
Sieht schick aus, hat was von einem Kirchenfenster :D
Eine Frage die sich mir dabei allerdings stellt: Wie sieht's mit Erosion aus?
 
  • Gefällt mir
Reaktionen: bullit1, Merit, lalanunu und 16 andere
  • Gefällt mir
Reaktionen: bullit1, 0screamer0, Shir-Khan und 17 andere
Das ist definitiv interessant!
 
  • Gefällt mir
Reaktionen: NMA und Restart001
Bei der Optimierung der Venation-Patterns hätte mich mal interessiert wieviel "AI" und wieviel klassische Algorithmik dahintersteckt. Und vor allem, was dort eigentlich optimiert wurde. Denn wenn ich kein Wissen über Hotspots innerhalb des Chips habe, dann optimiere ich nur Durchflusswiderstand. Man müsste also den Chip unter Last vermessen hinsichtlich lokaler Temperaturen.

Trotzdem ein durchaus interessantes Thema. Wobei die Intention auch wieder unschön sein kann: Während es vorher bedingt durch die Fertigung ein Limit gab, wieviel eine GPU verbrauchen kann, schiebt man dieses Limit jetzt wieder ein paar Generationen nach oben, sodass die ganzen AI-Datacenters mehr Strom verbrauchen können (was gesellschaftlich eher schlecht ist imho).
 
  • Gefällt mir
Reaktionen: bullit1, CMDCake, the_IT_Guy und 8 andere
FrozenPie schrieb:
Sieht schick aus, hat was von einem Kirchenfenster :D
Jesus unser im Gehäuse, geheiligt werde dein Takt, dein MHZ komme, dein overklocking geschehe, wie bei Luft, als auch mit Wasser.
 
  • Gefällt mir
Reaktionen: bullit1, Fritzler, Innensechskant und 61 andere
Vermutlich nur interessant für professionelle Einsätze. In einer Wakü-Lösung daheim würden sicherlich Rückstände die kleinen Kanäle im Chip ruckzuck zusetzen.
 
  • Gefällt mir
Reaktionen: NMA, K0r4nd, rzweinig und eine weitere Person
Verstehe ich den Artikel richtig dass der "Durchbruch" in dem Design der Kapilaren besteht und auch Microsoft noch keine Lösung für eine produktive Umsetzung hat? :freaky:

Selbst bei dem Design dürfte noch nicht klar sein ob und wie viel es bringt. Also die Fakten betrachtet spielt MS einfach nur rum? :D
 
  • Gefällt mir
Reaktionen: Convert, Kazuja, rzweinig und eine weitere Person
Keuleman schrieb:
Da steckt sicherlich noch mehr als nur Wasser drin. Oder was ganz anderes.

Bei derartig kleinen Kapillaren muss man absolut sicher sein, dass die Fluessigkeit nicht in irgendeiner Art und Weise degradiert oder gar das irgendwas aus der Loesung ausfaellt. Denn dann ist sowas direkt verstopft.
Da muss dann auch das Schlauchmaterial und jedes Fitting passen und darf seinerseits nichts abgeben.
 
  • Gefällt mir
Reaktionen: eastcoast_pete, CMDCake, BenNemsi und 11 andere
Hm, haben dich Chips da winzige Kanäle, oder einfach nur eine größere Oberfläche?
Ersteres kann ich mir nicht vorstellen, da bekommst ja nix durch, zweiter es ist eher so semi-wow..

Ah, was bei quer lesen alles unter den Tisch fallen kann..
 
  • Gefällt mir
Reaktionen: NMA, januslamorte und Jan
Mehr Auflagefläche = mehr Temperaturableitung. Ich geh schon mal in den Keller Schleifpapier und den Cutter suchen. :schluck:
 
  • Gefällt mir
Reaktionen: Steven Coolmay, derohneWolftanzt und Boulettendieb
Also ist es richtig, dass mehr Energie verbraucht werden darf, um zukünftig mehr Leistung zu bekommen? Ich weiß ja nicht, dann bitte erst einmal stoppen und forschen!
 
  • Gefällt mir
Reaktionen: Caramon2, BenNemsi und Deinorius
Ich seh schon die ersten Angebote bei Ebay und Kleinanzeigen für CPU-Kühlflüssigkeit, bei denen Leute gefärbtes, destilliertes Wasser einfach für 1000€/L als "Tuningkühlflüssigkeit" verkaufen. (Natürlich in 20ml Gebinden zu 19,99€):hammer_alt:
 
  • Gefällt mir
Reaktionen: bullit1, Merit, shysdrag und 6 andere
hat microsoft eigene chips für die das relevant sein könnte? und sie haben es nur geschafft mit ki ein muster für paar kanäle zu erstellen?
hätte sowas eher von intel oder einem auftragsfertiger erwartet.

bis das serienreif und dauerhaft funktioniert sind noch ein paar nüsse zu knacken...aber die anforderungen werden hoch bleiben. einfach in ne aio mit reinhängen wird nicht gehen.

ich prohezeie schon mal kühlschichten zwischen compute-schichten.
 
C.J. schrieb:
Man müsste also den Chip unter Last vermessen hinsichtlich lokaler Temperaturen.
Das dürfte kein Problem sein. STH hat sich die Bilder mal angeschaut und kommt zum Schluss, dass es sich um einen Ice Lake-SP Xeon handelt, den Microsoft hier für den Test verwendet hat: https://www.servethehome.com/micros...c-channels-directly-into-silicon-chips-intel/

Wenn das stimmt (und ich halte das für plausibel), hat man einen ausgemusterten Server ausm Rechenzentrum ins Labor gebracht und damit rumgespielt. Das Vermessen unter Last dürfte also überhaupt kein Problem gewesen sein.

punkydie schrieb:
Also ist es richtig, dass mehr Energie verbraucht werden darf, um zukünftig mehr Leistung zu bekommen?
Lokal in einem Chip ja. Letztlich ist Verbrauch egal, auf Effizienz kommt es an. Und die wird nicht (mehr) pro Chip optimiert, sondern pro Rechenzentrum. Da kann es sich durchaus lohnen, die GPUs weniger effizient zu betreiben, aber sich im Gegenzug weniger Server und Netzwerktechnik (also den ganzen Overhead drum herum) zu brauchen.
 
  • Gefällt mir
Reaktionen: Caramon2, fabeltierkater, stevefrogs und 2 andere
punkydie schrieb:
Also ist es richtig, dass mehr Energie verbraucht werden darf, um zukünftig mehr Leistung zu bekommen? Ich weiß ja nicht, dann bitte erst einmal stoppen und forschen!

Chipindustrie der Welt, SOFORT STOP! Rofl.

Dir ist klar, dass das im Prinzip seit Beginn der transistorbasierten Mikroelektronik schon seit jeher der Fall ist?
Zwar wirken effizientere Chipdesigns und neuere Fertigungsverfahren immer wieder bremsend, aber der breite Trend zeigte bei den leistungstragenden Komponenten wie CPUs und GPUs schon von Anfang an nach oben, was den Energieverbrauch angeht.
 
  • Gefällt mir
Reaktionen: stevefrogs
Wie ich die letzten News verstanden habe, sollen diese Lösungen ohnehin in sich geschlossen sein. Dann wäre aber wiederum die Effizienz geringer. Es bleibt spannend 🤓
 
Zurück
Oben