News GPUs von Intel: Xe mit ein bis vier „Tiles“ von 75 bis 500 Watt

ein Intel-produkt mit extrem hohem stromverbrauch? wie unerwartet:evillol: naja, wenn am ende entsprechend viel leistung bei rumkommt, warum nicht. für gamer ist das ja eh nicht gedacht.

q3fuba schrieb:
Bei gleicher Anzahl an Kernen ist Intel auch im Multithreading (immer noch!) schneller als AMD
ein i5 ist multithread garantiert nicht schneller als ein 3600(X) und ein 9700K nicht schneller als ein 3700X/3800X. hier lag der 3700X mit dem 9900K multithread im schnitt gleichauf und der 3600 war etwas schneller als der 8700K, und dabei sind die Intel-CPUs deutlich teurer. Intels nirgendwo lieferbares HEDT-flaggschiff mit 18 kernen beißt sich an AMDs mainstream-flaggschiff mit 16 kernen die zähne aus. und hier ist Intel auch beim zocken schlechter, auch verglichen mit AMDs aktuellen HEDT-CPUs.

Ja, AMD ist billiger!
deutlich sogar. und liefert trotzdem die in etwa gleiche oder sogar bessere leistung.

Aber das erwartet man auch von "vergleichsweise" minderwertigerer Ware (also ich zumindest)!
minderwertig ist höchstens dein beitrag.

Icetea36 schrieb:
Der 10980XE hat übringens die exakt gleiche Punktzahl wieder 9980XE.
ist ja auch die gleiche CPU:freak::D
 
  • Gefällt mir
Reaktionen: adAstra, Unnu, s0UL1 und 3 andere
  • Gefällt mir
Reaktionen: bad_sign, Lord B. und iron-man
Wäre interessant wenn Intel hier quasi Multi Chip Design erprobt bevor man die eigene CPU Fertigung damit konfrontiert. Bei den GPU kann man ja eher von kleinen Absatzzahlen ausgehen, aktuell ist das eher erstmal ein Testballon.
 
Ggf. gibt es die 4 Tiles Version auch für die Gamer, nur eben mit extra Netzteil.:king:
 
48V Netzteile nun bald auch für Heimanwender. Das wäre eine ware Errungenschaft für Intel. :D
Das würde das HEDT Segment in neue Höhen heben.
 
2.056 Shader und 300W TDP? Da hat Intel aber noch Arbeit vor sich. Das Chiplet Design ist aber sehr spannend, mal sehen, wann Nvidia und AMD damit um die Ecke kommen und wie das am Ende funktioniert, ob es Mikroruckler gibt oder ob alles geschmeidig läuft.
 
HerrRossi schrieb:
ob es Mikroruckler gibt oder ob alles geschmeidig läuft.

Es werden ja nicht mehrere eigenständige GPUs zusammengeklebt, die dann abwechselnd die Frames berechnen, sondern ein Chip daraus gemacht.
 
  • Gefällt mir
Reaktionen: v_ossi
RAZORLIGHT schrieb:
500W, anscheinend ist der Brute Force Ansatz bei Intel wieder modern :lol:
Nein, Intel will Machine Learnig, KI, usw. evtl. auch beim Spielestreaming einsteigen.
Wadenbeisser schrieb:
Intels Larrabee Projekt....ja welche Grafikleistung hatte es denn? Es war ein Produkt für ein recht spezielles Einsatzgebiet das mit traditionellen Grafikkarten nicht sonderlich viel gemeinsam hat.
estros schrieb:
Es ging stets um beschleunigte Berechnungen und im Falle Larrebee um x86 kompatibles. Von daher kann ich das Versagen nicht unterstreichen.
Intels Larrebee war als reguläre Grafikkarte geplant, halt nur mit x86 Technik. Als man merkte das man nciht mit den Platzhirschen mitspielen kann hat sich das Einsatzgebiet geändert um überhaupt noch Geld wieder zu bekommen.
 
  • Gefällt mir
Reaktionen: Unnu
sikarr schrieb:
Intels Larrebee war als reguläre Grafikkarte geplant,

Ja und nein! Natürlich dürfte man als erstes den GPGPU Markt im Blick gehabt haben, dort wird letztlich auch mehr Geld verdient. Das gleiche hat man jetzt auch vor und 500W sind in diesem Markt nicht viel.
1581436004335.png

https://www.supermicro.com/en/products/GPU
 
  • Gefällt mir
Reaktionen: Unnu, Ctrl und sikarr
Steini1990 schrieb:
Sicher nicht. APU ist nämlich nur der Marketingname von AMD. Intel hat damit nichts am Hut.
All das sind keine Grafikkarten sondern nur Grafikrecheneinheiten auf einem CPU Die. Eine ganz andere Liga.
Ein Marketingname? Würd ich nicht sagen, dieser koexistiert auf dem Package oder im Die selbst, das ist ja alles nichts neues. Und welche andere Liga meinst du? Ein Grafikchipo ist nunmal ein Grafikchip. Natülrich ist das ein und dasselbe. Aber du kannst das gerne ausführen.:)
Wadenbeisser schrieb:
Gaming war das Paradebeispiel für die Iris Pro, welche vor allem im mobilen Bereich eingesetzt hatte. Damit konnte man sich bei der Grafikleistung erstmals von AMDs deutlich billigeren APUs absetzen......zumindest was die GRafikleistung anging und ja, dafür war in erster Linie der recht kleine eSRAM verantwortlich denn die Variante die ohne ihn auskommen musste verhungerte ebenfalls an der Speicherbandbreite.
Wenn du hingegen anderer Meinung bist dann bin ich gespannt wofür man deiner Meinung nach die schnellere IGP und den zusätzlichen eSRAM sonst benötigt hätte.

Wenn die x86er Kompatibilität des Larrebee der entscheidene Faktor wäre, was hat das dann mit einer Grafikkarte zu tuen? Die Dinger sind reine HPC Beschleuniger ohne Grafikausgabe. Auch wenn die Teile mal dafür entwickelt wurden hatten sie auf dem Gebiet gegen die direkte Konkurrenz schon so vorzeitig versagt das man sich die Präsentation auf den Gebiet ganz sparte. Und ja, das ist dann für den Einsatz ein Versagen auf ganzer Linie.

So nebenbei beruhten die IGPs mehrerer CPU Generationen der Core Reihe auf eingekauftes/lizenziertes, externes Knowhow und man wechselte später wieder auf eigenes allerdings weiss ich nicht mehr genau wann was zum Einsatz kam. Ich bin mir allerdings relativ sicher das die HD4000 Grafik der Haswell Reihe dazu gehörte.
Na, wie ich bereits schrieb, für beschleunigte Rechenoperationen, die die CPU entlasten. Hab ich alles schon geschrieben. Gaming nun aber wirklich nicht, alles viel zu schwach.
Ähm, wenn du keine Ahnung hast über die HD4000, solltest du lieber kein weiteres Wort verlieren, ist ja alles falsch. Solch Fehlinfornationen braucht niemand im Forum.
 
Mihawk90 schrieb:
Die werden doch nicht etwa zusammengeklebt :D
So wie man AMD dafür belächelt hat ist das fernab jeglicher Vorstellung.
 
CastorTransport schrieb:
Sie haben da ja fast keinerlei Erfahrung auf dem Gebiet.

Von den Treibern bezüglich Spielen abgesehen gibt es aus meiner Sicht aber eher wenig Unterstützung von AMD in anderen Bereichen, wie ML... für PyTorch und Tensorflow gibt es entweder MKL oder Cuda zur Beschleunigung.

Gäbe es da etwas von AMD, wäre das super. Und genau da erwarte ich mir dann doch wesentlich mehr von Intel, dass sie ein Backend für Numpy, Tensorflow etc. bereitstellen werden.
 
Zuletzt bearbeitet:
Steini1990 schrieb:
LOL. Ernsthaft? So viele Projekte wie Intel in den letzten 10-15 Jahren an die Wand gefahren hat ist nicht mehr feierlich. Woher kommt dieses blinde Vertrauen? Funksparte an die Wand gefahren, den ersten Ausflug ins Grafikkartensegment komplett vergeigt, in der 10nm Fertigung verrannt, Zukäufe getätigt die keine Produkte hervorgebracht haben, usw...
Ich meine mich zu erinnern dass bspw. Google knapp 2/3 aller Projekte wieder einstampft weil sie nicht das erwartete Potential entfalten.

Eine hohe Quote ist nicht per se schlecht, was zählt ist diese im Verhältnis zu den erfolgreichen Projekten. Und auch wenn man Intel im CPU Markt bspw. Handbremsen-Mentalität nachsagen kann. Anti-innovativ würd ich den Konzern nicht nennen im eigenen Ökosystem. Anti-innovativ im Sinne des verhindern von Konkurrenz im Markt definitiv, aber nicht generell.
 
MarcoMichel schrieb:
Bin mal gespannt, wie die Lieferbarkeit sein wird. 500 Watt könnte eine gewisse höhere Grafikleistung bedeuten. ...

Wenn die 48V brauchen und das eher im Server Segment verortet wird, dann wird die kaum für den Desktop hergestellt, sondern GPU Computing.
 
ZeXes schrieb:
Jetzt muss Raja Koduri abliefern. Bei AMD hat er sich beschwert, dass ihm die Mittel an NAVI abgezogen wurden sind, bei intel kann er sich nicht mehr über zu geringen Entwicklungs- und Forschungsgeldern aufregen.

Mal sehen was am Ende raus kommt.
Wer sagt denn, dass er da mehr Geld zur Verfügung gestellt bekommt? Nur weil Intel mehr Kohle hat, müssen die ja nicht gleich auch mehr davon investieren. Gerade die Reicheren sind doch meistens die Geizigeren.^^
 
HerrRossi schrieb:
Das Chiplet Design ist aber sehr spannend, mal sehen, wann Nvidia und AMD damit um die Ecke kommen und wie das am Ende funktioniert, ob es Mikroruckler gibt oder ob alles geschmeidig läuft.
Für das HPC Segment dürfte das weitestgehend egal sein.
Da ist es ja auch kein sonderliches Problem Berechnungen auf mehrere GPUs zu verteilen.
estros schrieb:
Ähm, wenn du keine Ahnung hast über die HD4000, solltest du lieber kein weiteres Wort verlieren, ist ja alles falsch. Solch Fehlinfornationen braucht niemand im Forum.
Wozu? Dich stört es ja auch nicht fröhlich Unsinn über Sachen zu verbreiten von denen du offensichtlich keine Ahnung hast und versuchst es dann zu zerreden.
Und ja, der Begriff "APU" ist ein Marketing Name der verdeutlichen das mit der CPU und der GPU gerechnet werden kann und die integrierte GPU deutlich mehr Power hat als seinerzeit sonst üblich.
 
Wadenbeisser schrieb:
Wozu? Dich stört es ja auch nicht fröhlich Unsinn über Sachen zu verbreiten von denen du offensichtlich keine Ahnung hast und versuchst es dann zu zerreden.
Und ja, der Begriff "APU" ist ein Marketing Name der verdeutlichen das mit der CPU und der GPU gerechnet werden kann und die integrierte GPU deutlich mehr Power hat als seinerzeit sonst üblich.
Weil es einfach Mist ist, hier Falschinformationen zu verbreiten, das muss echt nicht sein.
 
48 Volt in Servernetzteilen? AFAIK läuft dort das meiste nach wie vor auf 12 Volt Basis (zu Zeiten des Antminer-Booms waren die als 12 Volt Stromquelle sehr beliebt).

Abgesehen davon: 500 Watt ist in Standardservern definitiv too much und wird mit an Sicherheit grenzender Wahrscheinlichkeit nur für Flüssigkühlung realisiert. Wäre sinnvoll sowas dazuzuschreiben.
 
Zurück
Oben