Notiz Intel Xe HP: Intel zeigt erste Muster der High-End-Grafikkarten

DarknessFalls schrieb:
Doch, Ende der 1990er hat sich Intel darin versucht, scheiterte allerdings kläglich. Miese Treiber, miese Performance.

https://de.wikipedia.org/wiki/I740

Hatte ich. Das Ding war echt grauenvoll. In jeder Hinsicht. Die Treiber mochten oft keine Texturen malen,..

Und die Härte: Die gehörten mit zu den ersten Grafikkarten, die einen aufgeklebten Kühlkörper auf dem Chip hatten, die waren halt warm. Meiner ist mal mitten im Betrieb von der i740 abgefallen, lag dann auf dem Rücken der Soundkarte. Der Kleber hat die Hitze wohl nicht ewig vertragen... Nach leisen Klimpen im Tower war plötzlich der ganze Rechner aus...
 
  • Gefällt mir
Reaktionen: BurgbachJ, DarknessFalls, cruse und eine weitere Person
Nach der letzten 7-8 nm Herstellung und trotzdem 300 Watt bei nvidia und AMD , sehe ich Intel mit seine HPG Kühler ganz unten in den Benchmarks. Die kochen auch nur mit Wasser ^^
 
@rockfake Da hast Du dann halt Grafikkarte, Heizung und Herdplatte in einem. Ist doch super! :lol:
 
Ich habe grüne PCB noch nie so störend emfpunden :D

Egal was Intel da bringt, let's go. Wir haben die letzten ~3 Jahre alle gemerkt: Konkurrenz belebt das Geschäft. Aber ob von A100 Konkurrenz automatisch auf High-End-Gaming befähigte GPUs schließbar ist, da bin ich zurückhaltend. Ich freu mich :)
 
calluna schrieb:
Wer sagt, dass das hier eine Grafikkarte für einen Desktop-Rechner sein soll? Intel braucht die Xe HP vor allem - und das schnell - für HPC-Kunden.
Artikel haste aber schon gelesen?
 
hurga_gonzales schrieb:
wenn Du über 30 Jahre alt bist, wirst Du das nicht mehr erleben :D .

Wenn dein Alter im Profil stimmt, gibst Du dir aber nicht mehr viel Zeit. :evillol:

Ich erwarte schon, dass Intel in den nächsten 3-5 Jahren bei den dedizierten GPUs einen Anteil von 10-20% erreicht. Vermutlich werden sie sich nicht die Leistungskrone aufsetzen können, aber die Masse kauft doch eh Einsteiger- oder Mittelklasse. Wenn man nicht unbedingt immer das aktuellste spielt, reicht ja manchmal schon die iGPU völlig aus.

Kann natürlich sein, dass der von mir prognostizierte Marktanteil für Intel zu wenig ist und sie es wieder (mal) aufgeben. Ich sehe die Desktop-GPUs aber auch eher als "Abfallprodukt" der Server-GPUs und mehr als Image-Produkt für den Consumer-Markt. Und wenn sie besser sind als erwartet, wird es hier bei CB auch sicher genug "Influenza" geben, die ihren nicht so technikbegeisterten Freunden und Verwandten mit PC-Bedarf dann in Zukunft eine Intel- statt einer AMD- oder Nvidia-GPU empfehlen.
 
Zuletzt bearbeitet: (Typo)
  • Gefällt mir
Reaktionen: hurga_gonzales
  • Gefällt mir
Reaktionen: Rockstar85, derSafran, hurga_gonzales und eine weitere Person
Zoba schrieb:
Stimmt 2020 war wirklich krass mit guten AMD Karten und guten Nvidia Karten!
krass, ja, aber wohl eher krass schlecht: null verfügbarkeit auf beiden seiten und unfassbare preise, die sich aus all dem ergeben. für mich das schlechteste jahr seit langem in diesem zusammenhang.
 
  • Gefällt mir
Reaktionen: uli_2112
hoffentlich bringt intel was anständiges raus. amd und nvidia beschäftigen sich derzeit hauptsächlich mit preistreiberei. für mich hat amd mit den letzten paar releases und fragwürdigen aktionen sämtliches wohlwollen verspielt, das man mit zen1 und vega eingesammelt hat.
 
  • Gefällt mir
Reaktionen: Chris8208 und uli_2112
_Reaper schrieb:
Artikel haste aber schon gelesen?

Und hast du ihn gelesen?

Auf der Karte in der Mitte steht "Server GPU" und die Xe HP links davon ist eine Profi-GPU, die es mit 1 bis 4 Tiles gibt. Davon soll die größte Variante 2048 EU haben - und die braucht Intel, um bestimmte Kunden zu bedienen... das ist sehr viel wichtiger als Gaming-Karten für Endkunden.

Nur der letzte Satz am Ende der "News" liefert mit Xe-HPG einen Verweis darauf, dass auch für 2021 Gaming-Karten kommen sollen, doch in der News geht es nicht darum.
 
Zuletzt bearbeitet:
rockfake schrieb:
und trotzdem 300 Watt bei nvidia und AMD
Ich bin kein Experte aber ich denke ohne die Raytracing-Technik würden AMD und Nvidia deutlich genügsamere Karten auch im High-End Bereich produzieren können. Korrigiert mich, wenn ich falsch liege.
 
  • Gefällt mir
Reaktionen: -Ps-Y-cO-
Ist nur ein Unterschied zwischen Gamingkarten und Serverkarten. Das hat z.B. AMD schon mal in Bedrängnis gebracht denn GCN ist ne Super Architektur ... für Compute aber weniger für Games. Da muss Intel imo schon auf 2 Architekturen setzen um mitspielen zu wollen. Ich setz keine 5 Cent auf Intel im Bereich Gaming.
 
Discovery_1 schrieb:
Ich bin kein Experte aber ich denke ohne die Raytracing-Technik würden AMD und Nvidia deutlich genügsamere Karten auch im High-End Bereich produzieren können. Korrigiert mich, wenn ich falsch liege.
OK. Ich korrigiere,..... Nein.
 
  • Gefällt mir
Reaktionen: Hayda Ministral
_Reaper schrieb:
Artikel haste aber schon gelesen?
du auf jeden Fall nicht, und die Bilder hast du dir auch nicht angesehen. Das Zitat mit dem Twitter Post von Raja Koduri hast du wohl auch nicht gelesen, oder du verstehst unter "Data Center" halt was anderes als der Rest hier im Forum ... Lies nochmal den Artikel und zeige mir die Stelle in der sich der Inhalt des Artikels auf irgendwelche Desktop Gamer was auch immer GPUs bezieht. Danke
 
fox40phil schrieb:
Sind da nun zusmmengekleisterte GPUs (Chiplets?) auf die ich von AMD schon seit 4-5 Jahren warte?

Super-GPU-Goo by Intel :) :D

Ich sag jetzt mal unverbindlich ja. Federführend für die erste Navi Entwicklung und den originären Plan eines Chiplet Designs was superskalierbar sein sollte, war damals Raja Koduri , der nun bei Intel federführend für Xe ist ... die Wahrscheinlichkeit liegt daher sehr hoch das hier Chiplets im Einsatz sind um die Kosten für größere Chips klein zu halten als auch die Performance Quasi extrem skalierbar zu halten.

Ob es das nun auch wird, muss sich zeigen.

Interessant wird an dieser Stelle aber eher der Interconnect zw. den Chiplets und was Intel da als "Infinity Fabric" mit welchen Stats auch immer am Start haben möchte.
 
  • Gefällt mir
Reaktionen: fox40phil
Nizakh schrieb:
Bin gespannt was Intel liefert! Gibt es schon eine grobe Vorstellung, wann mit finalen Produkten zu rechnen ist?
"It's done when it's done!" (siehe 10nm-Technik ^^)
Ergänzung ()

Ichthys schrieb:
Ich hoffe auf starke Grafikkarten. Sowohl AMD als auch nVidia können starke Konkurrenz verkraften!
Denn bis auf weiteres dürfte Intel der einzige Neuzugang im Grafikkartenmarkt sein. Und drei Hersteller sind besser als zwei, bei denen immer nur auf das Gegenüber reagiert werden muss (sieht man an AMDs Preisen, welche logischerweise sich an nVidia orientieren).

Gibt es hier echt jemanden, der glaubt, dass Intel (!?!!) zum Wohltäter der Nation wird und sich unterhalb der Konkurrenz mit einem Preis-Leistungsknaller präsentieren wird? (hüähähähäähähähä^^)
Das wird eher Copy-Paste, grün wird blau.
Letztendlich ist immer der erste die arme Sau, die die Preise für die nächsten 2 Jahre definiert, sollte Intel auch auf die Idee kommen zukünftig relativ zeitgleich zu releasen.
Konnte man sich damals freuen quasi monatlich von irgendeinem Hersteller etwas vor die Füße geschmissen zu bekommen, sind die Hersteller heutezutage drastisch ausgedünnt (Mainboard "A" war damals 30 Hersteller, zählt jetzt überhaupt mal 10 an der Zahl auf), und das kommt alles auf einmal. Konsolen, alle auf einmal, Prozessoren, alle auf einmal, Grafikkarten, alle auf einmal.
 
Zuletzt bearbeitet:
noxon schrieb:
Warum sollte ARM keine Lizenz bekommen? Gibt doch genug andere Hersteller, die eine bekommen haben
https://en.wikipedia.org/wiki/List_of_x86_manufacturers
Ja, es gab (nicht gibt) einige Hersteller die selbst x86 Cpus gefertigt haben. Das ist aber auch schon 20 Jahre her. Effektiv haben derzeit 3 Hersteller x86 Lizenzen: Intel, AMD, VIA. Selbst die Chinesen haben ja nur von AMD lizensiert und ich meine man schiebt die VIA Lizenz fröhlich durch Verkäufe hin und her. Afaik gibt Intel derzeit keine weitere x86 Lizenz raus, wobei einem reines x86 auch nichts nützt, denn man braucht die ganzen Erweiterungen (SSE, 64bit, AVX usw usf).
calluna schrieb:
Es ist nicht offensichtlich, was du damit meinst. Und x86_64 plus Erweiterungen ist ein Interface, keine Architektur.
Stimmt. x86 Instruktionen haben (im Gegensatz zu zu ARM) eine variable Länge, deshalb wurde schon vermutet wurde das die "Breite" der einzelnen Kerne bei AMD und Intel relativ begrenzt ist, während Apple extrem "breit" designed hat. Außerdem sind variable Instruktionslängen innerhalb der Cpu schwerer zu bearbeiten, weil das den Aufwand beim decoden steigert. Insgesamt soll sich so ARM deutlich besser und vorallem effizienter auslegen lassen, was genau die immense Leistung des Apple M1, selbst während der x86 Emulation via Rosetta2 ausmachen soll.

Ich hatte dazu auch mal ne Quelle, komme aber gerade nicht drauf wo ich das gelesen hatte.
 
der Unzensierte schrieb:
Was denn nun? ARM oder x86? Da muss man sich schon entscheiden.

@topic: sehr nice, mal sehen wer eher zu brauchbaren Preisen liefert :jumpin:

Bei Apple nicht mehr was die Codebasis betrifft der M1 "schluckt" auch x86 ohne mit der Wimper zu zucken

Mal sehen ob Nvidia das mit dem Tegra auch hinbekommt auf ARM Basis

Und bevor einer schimpft ... ja ich weiß worauf ihr hinaus wollt dabei
 
Zurück
Oben