News Intel Server GPU: Die XG310 kombiniert 4 Xe-GPUs auf einer PCIe-x16-Karte

Rockstar85 schrieb:
Breite GPU mit Fokus auf Machine Learning..
Larrabee sollte auch ein One Size fits all werden, und was es wurde, wissen wir ja.

Ja, aber der Unterschied ist, dass es diesmal tatsächlich "nur" eine GPU ist, deren Grundlage über viele Jahre entwickelt und in den CPUs getestet wurde. Jetzt wird skaliert.

Und "Machine Learning" ist genau das, was gut zum typischen Workload von GPUs passt.
Sonst wäre auch der "Trick" von Google bei Tensorflow in JavaScript im Browser nicht möglich, bei der die GPU benutzt wird, über die WebGL-API, indem die Daten als Texturen behandelt werden, wodurch das auf jeder GPU läuft.

Deswegen gibt es hier diesmal kein "One Size fits all", weil Machine Learning und Grafik aus mathematischer Sicht ähnliche Operationen benötigen.

Ich finde, im Gegensatz zu Larrabee und dem 10nm Desaster, geht Intel hier diesmal viele kleine Schritte, anstatt einen großen Sprung machen zu wollen und sich dabei ein Bein zu brechen.
 
Zuletzt bearbeitet:
Ist LPDDR4 nicht eine ziemliche Bremse im Vergleich zu GDDR?

Aber generell gefällt mir das Prinzip viele Chips auf einem PCB :D
 
  • Gefällt mir
Reaktionen: Strahltriebwerk und konkretor
PS828 schrieb:
Ist LPDDR4 nicht eine ziemliche Bremse im Vergleich zu GDDR?

Es ist LPDDR4X und es muss nicht zwingend langsam sein. Ein Stack hat 34.1 GB/s Bandbreite, auf dem Bild kann man pro GPU-Chip vier solche Chips sehen, das dürfte also 136.4 GB/s ergeben. Das hört sich nicht nach viel an, ist aber mehr als eine GTX1650 mit 128 GB/s und dürfte viel weniger Strom verbrauchen.
 
  • Gefällt mir
Reaktionen: PS828
Danke @xexex das täuscht manchmal ziemlich.

Ich weiß halt nicht wie die Architektur Bandbreite möchte und ob für diese vier Chips hier die erechnete Bandbreite viel oder wenig ist. Da es HPC Karten sind wollen sie eigentlich immer gut mit Bandbreite.. aber wer weiß das schon.^^ mal sehen ob's dann irgendwie mal Tests und Vergleiche gibt wo man das alles einordnen kann
 
Und ich dachte immer NVidia habe Voodoo aufgekauft und würde irgendwann mal endlich eine 4er GPU rauskloppen. :-)

Voodoo 6000 sabber....
Ergänzung ()

Chillaholic schrieb:
Wieso? Die haben doch die halbe Radeon Group von AMD übernommen. ;)
Da werden schon ein paar kluge Köpfe wissen, wie man ne GPU zusammenbaut.

Der Koduri ist eher nur für seine markanten Marketing-Sprüche bekannt geworden ("poor Volta" etc.), die ja nun bei Intel in allen Abteilungen ordentlich gefruchtet haben ("in WinWord schlagen wir alles und jeden!"^^).
Seine technischen Kompetenzen (bzw. die Entscheidungsfindung) sind mit der Vega-Reihe zumindest im Gaming-Segment ja eher bescheiden gewesen.
Und AMD scheint es in den letztn rund 2-3 Jahren ja wirklich gut geholfen zu haben, die eine oder andere Person endlich losgeworden zu sein? ^^ ;-P
 
Hayda Ministral schrieb:
Mit einer GPU bestehend aus vier Dies?
Dafür ist die Karte aber nicht gedacht, ich zitiere aus dem Artikel.
Die Intel Xe HP wird dabei als Version mit zwei Tiles gefahren erklärte Intel auf Nachfrage in einem Pressebriefing vorab, im Markt wird sie mit ein, zwei und vier Tiles erwartet.

Was du siehst ist eine Serverkarte mit 4 GPUs die entsprechend auch einzeln zum Beispiel zu verschiedenen VMs zugewiesen werden können. In einem Server kann man dann platz- und stromsparend vier solche Karten verbauen mit insgesamt 16GPUs. Die HP Karten kommen noch.
 
Hayda Ministral schrieb:
Kann so kommen. Muss aber nicht.

Es kommt so!
1605120392759.png

https://www.pcgameshardware.de/Inte...lops-Scale-Computing-1356460/galerie/3427771/
 
Bin gespannt wie sich das entwickelt. Intel mag momentan im CPU-bereich schwächeln, könnte im GPU-bereich aber für die eine, oder andere Überraschung sorgen.
 
  • Gefällt mir
Reaktionen: Strahltriebwerk
Ich verstehe deine Frage nicht! Die vorgestellte Karte beinhaltet vier LP GPUs, die über einen PCIe Switch angebunden auf einer Karte sitzen. Das hat so seine Richtigkeit und ist auch kaum anders zu lösen.

Die HP GPUs sind das was du dir anscheinend wünscht. Eine GPU bestehend aus mehreren Tiles auf einem Chip.

Was ist für dich denn da noch unklar oder "Kann so kommen. Muss aber nicht."? Beide Lösungen wurden bereits von Intel vorgestellt.
 
xexex schrieb:
Es ist LPDDR4X und es muss nicht zwingend langsam sein. Ein Stack hat 34.1 GB/s Bandbreite, auf dem Bild kann man pro GPU-Chip vier solche Chips sehen, das dürfte also 136.4 GB/s ergeben. Das hört sich nicht nach viel an, ist aber mehr als eine GTX1650 mit 128 GB/s und dürfte viel weniger Strom verbrauchen.
Da hast du dich verrechnet. Es ist die Hälfte. Ein 32bit Stack liefert 17 GB/s. In Summe sind es 68 GB/s. Und das ist lächerlich wenig im Vergleich zur Rechenleistung.
Kein Wunder, dass die DG1 kaum schneller ist, als die in Tigerlake integrierte GPU.
 
xexex schrieb:
Es sind vier GPUs auf einer Karte, wie soll es sonst funktionieren?

Vier "Dies" auf einer GPU aka McM.

Natürlich könnte man auch die GPUs statt auf einer Karte zu verbauen, sie auch in unterschiedliche Räume stellen und mit Kabeln verbinden^^

4 native Chips mit einem Bridge Chip auf einer Karte. Das ist "Hardwaresteinzeit" :evillol:

mfg
 
[wege]mini schrieb:
4 native Chips mit einem Bridge Chip auf einer Karte. Das ist "Hardwaresteinzeit"

Vielleicht hat diese Lösung etwas mit dem Verwendungszweck zu tun? Ich kenne mich in diesem Fall nicht so aus, aber die Tatsache, dass Intel bereits an einem kaufbaren Produkt gezeigt hat, dass sie Chips auch übereinander stapeln können... und dass es die HP-Version mit 4 Tiles gibt, sollte dir doch irgendwie zu denken geben, dass dein Lachen vielleicht etwas mit Unwissenheit zu tun haben könnte?
 
Zurück
Oben