News GPUs von Intel: Xe mit ein bis vier „Tiles“ von 75 bis 500 Watt

xexex schrieb:
Erzähle keinen Blödsinn!!! Siehe meinen vorherigen Link oder diesen:
[...]
(Quelle: https://www.servethehome.com)
1581462331214.png


Der typische Anwendungsfall ist direkte Wasserkühlung, da der Kühlaufwand so einer Kiste enorm ist und mehrere dieser Kisten mit regulärer Luftkühlung kaum (effizient) zu bändigen sind.
Das entspräche gut 40 kW pro Rack.

Solche Systeme existieren schon seit Jahren und Servernetzteile mit 1000W und mehr sind problemlos und bezahlbar erhältlich. Was glaubst du was die professionellen Nvidia Lösungen so verballern?
Nein! Doch! Oh!
Dass es Netzteile mit 1+ kW gibt, ist hinlänglich bekannt, allerdings verbaut man die eher selten, weil normale Systeme damit völlig überdimensioniert sind. D.h. es kostet Geld und Effizienz (also noch mehr Geld).
Sie sind im Regelfall auch nicht dafür gebaut eine einzelne Komponente mit 500 Watt Abwärme aufzunehmen.
Typische GPUs enden...
https://images.nvidia.com/content/t...volta-v100-datasheet-update-us-1165301-r5.pdf
1581462928496.png

mit eienr TDP von 300 Watt. Davon werden dann nach Bedarf mehr verbaut.

[...]
Mit 500W für 4096 Shader, wäre Intels Lösung auf dem Papier aber nicht wirklich effizient. Tesla V100 protz mit 5120 Shadern und einer TDP von 300W:
Erst meckern, dass das Ding ineffizient sei...
Muss aber natürlich nicht viel bedeuten, die Anzahl der Shader allein ist nicht entscheidend.
...dann feststellen, dass das lediglich eine Zahl ist und sie ohne weitere Details nichts aussagt.
Mein persönlicher Held.
 
  • Gefällt mir
Reaktionen: bad_sign
@Nagilum99 wobei im HEDT Bereich solche Netzteile durchaus vorkommen. Wenn man massig Hardware anschließen möchte + fette Hardware bedarf es nichtmal OC um 1000W+ hinzubekommen :D
 
Nagilum99 schrieb:
Dass es Netzteile mit 1+ kW gibt, ist hinlänglich bekannt, allerdings verbaut man die eher selten, weil normale Systeme damit völlig überdimensioniert sind. D.h. es kostet Geld und Effizienz (also noch mehr Geld).

In "normale" Systeme passen "normale" Grafikkarten sowieso nicht rein, also was willst du uns erzählen? Wenn man einen Server für GPU Berechnungen baut, nimmt man auch die passende Hardware und da braucht man auch bei 2000W keine Wasserkühlung.

Ein Servernetzteil mit einer solchen Leistung ist teuer?
1581466946715.png

https://geizhals.de/supermicro-pws-1k68a-1r-1600w-a2140162.html?hloc=at&hloc=de

Faktisch irrelevant, bei einem Server der sowieso meist um die 10k aufwärts kostet.

Nagilum99 schrieb:
Erst meckern, dass das Ding ineffizient sei...

Es ist eine Feststellung, die ohne weitere Informationen keine Relevanz hat, die GPU könnte mit 2Ghz takten oder die Shader eine ganze andere IPC haben. Was allerdings definitiv relevant ist, sei die Tabelle die ich verlinkt habe.
1581467331395.png


Allesamt GPU Server, so gut wie alle jenseits 1000W und keines davon setzt zwingend eine Wasserkühlung voraus oder stellt die OEMs vor unlösbare Probleme.

Wenn Intel mit Ponte Veccio 5000W verballern wird, dann wird es auch Server geben die darauf ausgelegt sind und wenn die Lösung von Intel dabei die 10000W Konfig von Nvidia schlägt, wird man es sogar effizient nennen. Wir reden hier nicht von Pillepalle PC Hardware wo die Leute meinen eine 200W CPU ließe sich nur mit Wasser kühlen, sondern von Serverhardware.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: jemandanders und Unnu
wern001 schrieb:
500 Watt :freak:
Dazu noch eine 700 Watt CPU

Bin mal kurz in der Pegasus Galaxie und klau mir ein ZPM

Ich denke, dafür sollte einer von Carters Naquadah Reaktoren ausreichen. Man muss es ja nicht gleich übertreiben ;)
 
ZeXes schrieb:
... muss Raja Koduri abliefern. Bei AMD hat er sich beschwert, dass ihm die Mittel an NAVI abgezogen wurden sind, bei intel kann er sich nicht mehr über zu geringen Entwicklungs- und Forschungsgeldern aufregen.
Mal sehen was am Ende raus kommt.

Na, vermutlich hat er das zu Recht, denn Navi ist ja nicht gerade schlecht geworden (hat Raja im Prinzip schon abgeliefert in dem Saftladen, der die RTG war und zum Teil noch ist), auch wenn die schleppende Verbreitung durch AMD/RTG leider dafuer gesorgt hat, dass die RDNA1-Navi nicht optimal/zeitig genug am Markt platziert werden konnten gegen das nVidia Portfolio, aber dafuer sind ja Su und Co. (Koduris Nachfolger) verantwortlich.

Bei Intel musste Koduri zudem alles von Grund auf aufbauen - wenn auch mit wenig oder keinen finanziellen Limitierungen/Barrieren - und hat kein etabliertes Umfeld vorgefunden mit Leuten, die seit Jahrzehnten dort GPUs entwickeln und eingespielt sind.

So gesehen wuerde ich fairerweise die Erwartungshaltung nicht zu hoch ansetzen fuer die Xe Erstgeneration und zudem muss man bedenken, dass die dGPUs eben nicht in 7nm(+) Fertigungsgroesse in der allerersten Generation von Intel produziert werden und natuerlich nicht vergleichbare Effizienz bei gleicher Leistung werden mitbringen koennen wie die Konkurrenz von nVidia oder AMD/RTG, aber HBM2E klingt schon 'mal gut (wenn auch teuer).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ZeXes, Tobi86 und Thomas761
Dai6oro schrieb:
... keine Konkurrenz zu AMD und Nvidia dieses Jahr wenn dann nur im lowest cost Bereich.

Im Einstiegsbereich kann das durchaus schon in Erstgeneration etwas werden je nach Fertigungskosten und Preisgestaltung (bei (unterer) Mittelklasse und darueber erwarte ich das auch noch nicht mit den Xe Erstgenerationskarten) und ebenso im Mobilbereich bei Tiger Lake, aber da muss man abwarten ob die vielverprechenden Geruechte dahingehend wirklich eintreffen werden und die Xe Grafik von Tiger Lake mit der Vega-Grafik der Renoir APUs auf Augenhoehe sein wird oder diese gar hinter sich lassen wird.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Thomas761
Das wird was, im März. :)

Am 5'ten beim Financial Analyst Day gibt's evtl. Informationen zu "Big Navi" und dann bei der GDC zu Intel Xe.

Hoffentlich haben alle Produkte "etwas" und sorgen für weitere Konkurrenz (und interessante Reviews) im Grafikkartenmarkt!
 
Sarkasmusschild hochhalt
 
Bin ich der einzige, der sich wundern würde, wenn das tatsächlich Gamingkarten werden?
 
  • Gefällt mir
Reaktionen: Apocalypse
xexex schrieb:
Wenn Intel mit Ponte Veccio 5000W verballern wird, dann wird es auch Server geben die darauf ausgelegt sind und wenn die Lösung von Intel dabei die 10000W Konfig von Nvidia schlägt, wird man es sogar effizient nennen. Wir reden hier nicht von Pillepalle PC Hardware wo die Leute meinen eine 200W CPU ließe sich nur mit Wasser kühlen, sondern von Serverhardware.

Die Leute sollen einfach mal ihren "super silent kein luftdruchsatz"-Lüfter mal gegen einen Serverlüfter austauschen.
Schon ist eine Luftkühlung von1000 Watt und mehr ohne Probleme möglich.
 
  • Gefällt mir
Reaktionen: Apocalypse
wern001 schrieb:
Die Leute sollen einfach mal ihren "super silent kein luftdruchsatz"-Lüfter mal gegen einen Serverlüfter austauschen.
Schon ist eine Luftkühlung von1000 Watt und mehr ohne Probleme möglich.

Besonders, wenn der Zentrale Teil der Kühlung eine redundant ausgelegte Klimaanlage für das ganze Rechenzentrum ist und die Raumtemperatur ehr so bei 22° liegt.
 
  • Gefällt mir
Reaktionen: Unnu
KuestenNebel schrieb:
Es sind tatsächlich sogar nur 250 Watt bei den normalen PCIe-Modellen - wie beim billigen Bruder Titan V:

Ich gehe aber davon aus, dass es die große Intel Lösung gar nicht als Karte geben wird, sondern nur als Modul.

1581507794978.png


Durch die Auslegung auf 48V würde eine Kartenvariante sowieso keinen Sinn machen. Die PCIe Variante der V100 ist in der Leistung und dadurch auch Stromaufnahme beschnitten.
1581508062961.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: adAstra
Jan schrieb:
In diesem Jahr erfolgt der Stapellauf für Intels erste diskrete GPU-Architektur seit Larrabee: Xe.
Xe ist bereits die zweite, diskrete GPU-Architektur seit Larrabee, Xeon Phi dazwischen gabs ja schließlich auch noch, richtig? Dass Xeon Phi ebenfalls eine reine, diskrete GPU-Architektur war , kann man ja schliesslich nicht bestreiten, oder?

Xeon Phi, damals aus Larrabee entstanden, war eine diskret ausgeführte GPU-Architektur, auch wenn sie hauptsächlich für GPGPU-Anwendungen war (General Purpose Computation on Graphics Processing Unit, kurz GPGPU). Nur weil sie für GP-Computing gedacht war, wird sie deswegen nicht gleich eine CPU-Architektur. Sie ist und bleibt eine GPU-Architektur. Ihr dürft das aber auch gern nochmal im Artikel ändern.

… weiß TechFA
 
PS828 schrieb:
@Nagilum99 wobei im HEDT Bereich solche Netzteile durchaus vorkommen. Wenn man massig Hardware anschließen möchte + fette Hardware bedarf es nichtmal OC um 1000W+ hinzubekommen :D
Das sind jetzt aber schon ziemliche Exoten. Ich bin nicht sicher ob ich in der 'freien Laufbahn' schon mal ein 1 kW Netzteil in einem PC gesehen habe. Wait: 1x bei einer HP Z8 Workstation für ~15k € - aber das ist auch ein Exot.

Apocalypse schrieb:
Besonders, wenn der Zentrale Teil der Kühlung eine redundant ausgelegte Klimaanlage für das ganze Rechenzentrum ist und die Raumtemperatur ehr so bei 22° liegt.
Erkär' doch mal den Zusammenhang zwischen "Die Intel Karte verbrennt 500 Watt" und "Zentrale Teile der Kühlung [...] Redundant". Und was sind für dich überhaupt zentrale Teile? Darf der Rest nicht redundant ausgelegt werden?
Zaunpfahl-Wink: Es gibt keinen - so schreibt jemand, der keine Ahnung hat.
500 Watt an einer Komponente in einem Standardserver abzuführen sorgt für hohe Drehzahlen bei allen Gehäuselüftern, weil das idR. nicht Zonenmäßig begrenz ist und macht die Kiste sehr ineffizient, weil Lüfter nicht durch Liebe angetrieben werden.
Wer Richtige Server betreut weiß, dass die Dinger richtig reinhauen können.
Abgesehen davon muss dann der Gegenkühler auch satt arbeiten, welcher weiter Energie verbraucht. Aber PUE etc. sind euch Experten ja sicher geläufig.
 
Apocalypse schrieb:
Stell dir eine R9 290 Vapor-X vor, und jetzt stell dir einfach vor das der Kühler auf beiden Seiten der Karte angebraucht ist. Tada, 600W problemlos gekühlt. ;-)

Strange Situation... Jetzt versteh ich das Wort Sandwich-Kühler... :)
 
Zurück
Oben