Bericht Intel-Arc-Grafikkarten: Details zu den Gaming-GPUs mit Alchemist-Architektur

Wolfgang

Redakteur
Teammitglied
Registriert
Nov. 2002
Beiträge
8.630
Intel hat erste technische Details zur Alchemist-Architektur bekanntgegeben, auf der die GPUs der Gaming-Grafikkarten der Intel-Arc-Serie basieren werden. Auch wenn handfeste Eckdaten oder Benchmarks noch fehlen, wird ersichtlich, in welche Richtung es mit der Technik geht – und wie sehr sich Intel an Nvidia orientiert hat.

Zum Bericht: Intel-Arc-Grafikkarten: Details zu den Gaming-GPUs mit Alchemist-Architektur
 
  • Gefällt mir
Reaktionen: flo.murr, IrontigerX, BrollyLSSJ und 23 andere
Ich freu mich drauf! Konkurrenz für AMD und Nvidia schadet nicht. Klar die Karten werden nicht mit den Top-Modellen mithalten können aber wenn man damit die 1050 Ti Klasse und evtl. etwas höher unter Druck setzen kann wäre das schon mal sehr gut.
 
  • Gefällt mir
Reaktionen: flo.murr, Wintermute, NMA und 13 andere
Andauernd berichtet Intel, aber wann kommen die Dinger dann endlich wirklich?
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai, Gabber, Strahltriebwerk und 9 andere
Jetzt weiß ich warum AMD ihre APUs noch nicht mit RDNA2 iGPUs ausstattet. Dies sparen sie sich dann für Alder-Lake auf.
 
  • Gefällt mir
Reaktionen: Mcr-King, -Ps-Y-cO- und Onkel Föhn
  • Gefällt mir
Reaktionen: NMA und Mcr-King
Ich würde es mir ja echt wünschen wenn ein dritter Kontrahent die Bühne betritt aber bis heute sind Intels Grafiktreiber eine reine Zumutung. Da kann die Hardware noch so toll sein, ohne gescheite Grafiktreiber wird es nichts.
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai, Mcr-King, -> m1 <- und 4 andere
Liest sich (wie fast immer bei INTEL) schon mal sehr konkurrenzfähig an.
ALLES wird mit den Treibern stehen oder fallen !
Good luck INTEL :daumen:
 
  • Gefällt mir
Reaktionen: lynx007, Strahltriebwerk und Mcr-King
Cool Master schrieb:
aber wenn man damit die 1050 Ti Klasse und evtl. etwas höher unter Druck setzen kann wäre das schon mal sehr gut.

Wenn man 512 EUs aka 4096 "Shader" verbaut und die Dinger mit 2.2Ghz (sehr konservativ) betreibt, wäre alles unter RTX3070 Niveau eine Enttäuschung.

Das Ganze dann mit 3Ghz+ und "nur" 250 Watt Verbrauch, wird das Produkt aber eher erreichen.

Wir reden hier nicht über interne GPU Einheiten einer CPU. Das hier wird eine dedizierte Graka und hier wird ordentlich geliefert.

time will tell.

Wenn es weniger wird, darfst du mich gerne öffentlich flamen. (nicht so wie die Taliban, anzünden muss nicht sein)

mfg
 
  • Gefällt mir
Reaktionen: Onkel Föhn, NMA, downforze und 5 andere
Klingt auf jeden Fall interessant und die Konkurrenz ist willkommen.

Denke DG2 wird den Gerüchten entsprechend schon irgendwo auf dem Niveau einer 3070 landen. Schon alleine weil man 512 EUs in N6 verbaut und diese mit 16GB GDDR6 ausstattet. Aber wirklich los geht es eigentlich erst mit DG3 und DG4 die dann nochmal in den Details nachbessern.

Könnte mir sogar vorstellen dass diese in kürzeren zeitabständen kommen da in DG2 sicher noch viel "einfaches" optimierungspotenzial steckt und man auch schon auf N5 oder N3 wechseln könnte. Könnte mir 12-18 Monatszyklen vorstellen bis man sich am Markt etabliert hat da man ja schnell zu RDNA3 und Lovelace aufschließen muss...

Vlt macht man sich ja sogar die Erfahrungen von PonteVecchio zu Nutze und bringt ein MCM Design.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Onkel Föhn, Strahltriebwerk und Mcr-King
Wer hier und heute schon die komplette Vorstellung oder gar Benchmark-Ergebnisse erwartet, der war dumm.
Ich hab das mal korrigiert. :D

Prinzipiell liest sich der Aufbau der GPU schon sehr interessant. Mich interessiert vor allem, wie die RT-Performance ist.
 
Die Leistung muss halt passen, nur das zählt. Mal sehen was sie zustande bringen.

Die 50% perf./Watt im Vergleich zu DG1 stimmt mich allerdings nachdenklich. DG1 war ineffizienter als Polaris in seiner Leistungsklasse und das trotz 14nm vs. 10 nm
Hoffen wir mal das beste
 
  • Gefällt mir
Reaktionen: Onkel Föhn, gartenriese, Strahltriebwerk und 3 andere
[wege]mini schrieb:
Wir reden hier nicht über interne GPU Einheiten einer CPU. Das hier wird eine dedizierte Graka und hier wird ordentlich geliefert.

Ich glaube viele hoffen und hypen wieder zu viel. Ich glaube wie gesagt, dass wir nicht gleich auf 3070 Niveau sind. Wie schon geschrieben wurde kommt es in erster Linie auf Treiber an und wie SW-Hersteller mit der HW umgehen. Ich denke in Spielen wird die Karte eher schlecht sein, da aktuell alles auf AMD und Nvidia optimiert ist.
 
  • Gefällt mir
Reaktionen: gartenriese, Fighter1993, iron-man und 4 andere
PS828 schrieb:
Die Leistung muss halt passen, nur das zählt. Mal sehen was sie zustande bringen.

Die 50% perf./Watt im Vergleich zu DG1 stimmt mich allerdings nachdenklich. DG1 war ineffizienter als Polaris in seiner Leistungsklasse und das trotz 14nm vs. 10 nm
Hoffen wir mal das beste
DG1 war was, 30W für die Karte? Bei geschätzt gleicher Leistung wie eine GT 1030 mit 30W TDP.
 
@Epistolarius langsamer als eine 1030, bei mehr Stromverbrauch wie eine RX560 die 40% schneller ist.

Also nicht gerade ein Aushängeschild für Effizienz
 
  • Gefällt mir
Reaktionen: Onkel Föhn, lynx007, Kitsune-Senpai und 2 andere
Mehr druck auf AMD/Nvidia ist sehr gut!

Hoffe, das Intel nicht anfängt (wie Nvidia) nur auf eigene Standards zu setzen. Das sie Adaptive Sync nutzen und nicht was eigenes ist schon mal ein gutes Zeichen.

Ach, wäre das schön, wenn alle drei offene Standards benutzen und darauf hin optimiert. Dann wäre man nicht Hersteller gebunden und die Spiele würden besser laufen bei mehr features.
 
DarkerThanBlack schrieb:
Jetzt weiß ich warum AMD ihre APUs noch nicht mit RDNA2 iGPUs ausstattet. Dies sparen sie sich dann für Alder-Lake auf.
Oder es liegt einfach daran, dass Vega im Notebook im Gegensatz zum Desktop ziemlich effizient ist ;)
 

WccftechTV

Intel XeSS Upscaling Demo - Architecture Day 2021 (4K)​

 
  • Gefällt mir
Reaktionen: Onkel Föhn, fox40phil, Cool Master und eine weitere Person
Rock Lee schrieb:
Es steht und fällt aber mit dem Treiber. Da habe ich noch ein großes Fragezeichen....
Intel weiß genau, was in Sachen Treiber auf dem Spiel steht. Dementsprechend arbeiten sie auch dran. So groß ist das Fragezeichen m.E. nicht.

Abseits von Spieleoptimierungen waren die Intel-Treiber meiner Erfahrung nach eigentlich unproblematisch. Dass Spiele nicht immer optimal unterstützt wurden, und Intel da manchmal mehr versprach, als gehalten wurde*), war eigentlich egal. Weder waren die iGPU wirklich zum Spielen geeignet noch gedacht. Nur Hartgesottene oder wenig informierte User haben wirklich versucht, zu dem jeweiligen Zeitpunkt aktuelle Spiele auf Intel-Lösungen zu spielen.

Aber jetzt, jetzt ist das vollkommen anders. Wenn sich Intel etablieren will, und sie scheinen es dem Wettbewerb zum Glück wirklich ernst zu meinen, dann darf es schlicht keinen Treiberfail geben.

*)Ich erinnere mich sehr gut an Intel-Chipsätze, die angeblich vollkommen DirectX 9c kompatibel sein wollten, aber weder das entsprechende Shader Modell noch T & L in Hardware unterstützten. Das Anaconda-Forum, (Anaconda war die Adventuresparte von dtp) war voll von Leuten, die selbst poplige Adventures nicht mit Intel spielen konnten, weil Intel das T&L per Software auf die CPU auslagerte und obendrein noch so frech waren, ein aktuelles Shadermodell zu fordern - Adventures, wohlgemerkt, ein Spielegenre, das ansonsten ausser absoluten Betrügerkarten a la 7300LE, jegliche AMD und Nvidia-Karten im Idle abgefrühstückt haben.
 
Zurück
Oben