News Intel Arc A770 („Alchemist“): Benchmarks in 1080p und 1440p mit XeSS und Raytracing

ShadowDragon schrieb:
Pauschal würde ich hier mit nein antworten. Sobald man Raytracing nutzt, sind 8Gb VRAM nicht mehr genug. (Gibt hier einige Tests von Digital Foundry zu 8Gb und RT und während es noch läuft, alleine 2Gb mehr helfen der Performance)

Und dann muss man immer noch schauen, welche compression für Texturen beherrscht Intel und welche Games Supporten das. Wenn es da so aussieht wie beim Rest des Treibers kann ich mir durchaus vorstellen das Intel ein paar GB mehr vram schluckt als die Konkurrenz
Ist so wie du sagst.

Aber: Die Leistung dieser Grafikkarte hier reicht nie und nimmer für moderne RT Games mit hohen Settings etc. so dass man 10GB Vram annähernd vollkriegen würde (?). Und das Ding hat einfach mal 16 :D
 
Innocience schrieb:
Wenn die Karte nich auch noch billiger oder mindestens genauso viel kostet wie die 3060 seh ich keinen Grund für teuer Geld Betatester zu spielen.
Der Vergleich mit der 3060 ist ja mit aktivem RT. Mit aktivem RT schrumpft bspw. der Vorsprung der 6700XT zur 3060 auch deutlich.

Die Frage ist wie nahe man 6700XT/3070 bei der Rasterizer-Leistung zum Release kommt. Denke die A770 wird sich hier ähnlich positionieren wie die 6700 XT: ohne RT etwas hinter der 3070, mit der RT deutlich dahinter.
 
Für die Leistungsaufnahme finde ich jetzt selbst die von Intel handverlesenen Benchmarks nicht so den Brüller. Insgesamt wirkt das ganze nicht sehr rund und mit jedem Tag der vergeht, ohne das man sie kaufen kann, wird es eigentlich nur schlimmer.

kiffmet schrieb:
wenn Intel noch länger mit dem Launch wartet, wird die Firma das müssen. Denn dann sind die Konkurrenten RTX4000 und RDNA3.

Wobei die Mittelklasse und Einstiegsklasse noch sehr lange auf sich warten lassen dürfte. Bis zur Mittelklasse der neuen Generation dürfte noch ein 3/4 Jahr ins Land ziehen. Auch dann ist es nur eine Frage der Positionierung am Markt.

john.smiles schrieb:
Das hat bis jetzt keinen Hersteller abgehalten, siehe AMDs 5700er Serie, deren Treiber bei Hardwarebeschleunigung wie im Browser Spiele hat abstürzen lassen.

Das stimmt. Die Treiber waren zu beginn eine absolute Katastrophe. Anders als AMD dürfte Intel aber zumindest in den Foren nicht so sehr den Stein im Brett haben, wie AMD. Was da teilweise argumentiert wurde, dass das ja gar nicht sein kann und das die Abstürze bestimmt eine andere Ursache haben müssen etc. Die Karten waren zu beginn in einem Zustand, wie man sie eigentlich nicht auf den Endkunden loslassen konnte. miese Performance in Spielen ist das eine. Blackscreens und Abstürze etwas ganz anders.

tox1c90 schrieb:
Eher das Gegenteil ist der Fall. Indie-Entwickler von "Nischenspielen" haben weder das Geld, Ressourcen noch das Renommee weitreichende Partnerschaften mit NVidia oder AMD einzugehen, damit diese ihnen extra Entwickler abstellen und "GameReady"-mäßig spezielle Kniffe in die Engine integrieren und ihre Treiber entsprechend darauf optimieren.

Na ja da gibt es solche und solche. teilweise sind gerade Indiespiele sehr Technikverliebt. Das muss nicht unbedingt etwas mit den Treibern zu tun haben, aber gerade im Indie Bereich laufen auffällig viele Spiele oftmals mit den am weitesten verbreiteten Grafikarchitekturen besonders gut zusammen. Hängt sicherlich an vielen Punkten, nicht zuletzt auch der verwendeten Engine. Wobei man da ja einen ähnlichen Trend sehen kann. Bei so ziemlich jedem Spiel ist es heutzutage ein Glücksgriff, selbst bei AAA Spielen.
 
  • Gefällt mir
Reaktionen: derin und W4RO_DE
Schinken42 schrieb:
@topic
Es steht und fällt halt alles mit dem Preis. [...]
Sehe ich nicht so. Viel hängt auch am Treiber und Support. Wieso sollte man sich 100euro Elektroschrott kaufen der nicht richtig funktioniert nur weil er halt die hälfte kostet und günstiger ist?
 
  • Gefällt mir
Reaktionen: simosh und Shy Bell
Revan1710 schrieb:
Der Vergleich mit der 3060 ist ja mit aktivem RT. Mit aktivem RT schrumpft bspw. der Vorsprung der 6700XT zur 3060 auch deutlich.

Die Frage ist wie nahe man 6700XT/3070 bei der Rasterizer-Leistung zum Release kommt. Denke die A770 wird sich hier ähnlich positionieren wie die 6700 XT: ohne RT etwas hinter der 3070, mit der RT deutlich dahinter.

Unwahrscheinlich. Die Intels sind bei RT deutlich stärker als AMD, das ist alleine schon von der Implementierung und Architekturpräsentationen klar. Tendenziell sollte sich Intel deutlich ähnlicher wie Nvidia verhalten. Von den Features her ist Intels RT Implementierung sogar Nvidia überlegen und man kann nicht auschließen, dass die Leistungsverluste sogar unter Nvidia liegen bei RT.
 
@AffenJack
Würde das zutreffen, passt das nicht mit den Hersteller-Benchmarks von der A750 zusammen. Die lag da ohne RT ja schon 10-15 % vor der 3060 und die A770 hat nochmal deutlich mehr Recheneinheiten und darf vmtl. auch höher takten
 
Na mal schauen 16GB in der 400€ Klasse ist ne Ansage aber 4096 Shader und 225Watt sind auch im Bereich einer RX 6800 und die ist sehr effizient .

Dadurch das die Shader fast gleich sind ( 6800 3840 ) zu 4k wid es spannend oder Intelas Shader sind uneffektiv :(
 
Für mich ist die aktuelle Intel Generation nix, evtl. die Nächste oder gar erst Übernächste. Mir ist Kompatibilität wichtiger als reine Performance, ich zocke nicht nur brandaktuelle Titel meine Spielebibliothek bei Steam ist groß und ich will nicht jedes mal basteln müssen damit irgendwas läuft.

So ein ähnliches Thema gabs damals auch bei ATi und nVidia, die ATi Hardware war super aber die Treiber haben es zu oft verkackt. Bei Intel siehts gerade ähnlich aus nur das selbst die Hardware noch nicht überzeugt hat.
 
Garnichtmal schlecht. Jetzt muss der Treiber noch stabiler werden und natürlich unabhängige Benchmarks her. Im Vollausbau letztlich das was ich von dieser Generation erwartet habe, wenn die Intel Balken halbwegs passen.
 
Schinken42 schrieb:
Es steht und fällt halt alles mit dem Preis. Für 100€ weniger als die 3060 wär die Karte ein No Brainer (der Einfachheit halber mal angenommen, die Benches bestätigen sich nach Release).
Bei gleichem oder sogar 15% höherem Preis eher sinnlos, warum zum selben Preis ein Risiko mit einem nicht etablierten Anbieter eingehen?
Ich weiß nicht ob die Intel Karten beim Preis soweit drunter sein werden. Und selbst wenn sollte man doch mal schauen wie hoch der Schmerz mit dem Treiber ist. Was wenn ich mal ein DX10 Spiel spielen möchte und plötzlich die Performance einer 6-8 Jahre alten Karte habe oder Grafikfehler oder richtig schlechte Frametimes? Selbst mit DX11 Spielen könnte dass passieren und hier sprechen wir von vielen aktuellen Spielen oder Games die nicht älter als 2-3 Jahre sind.

Ist ja schön das man jetzt eine 3060 schlägt. Mal sehen was davon übrug bleibt wenn es Test auf CB und anderen Seiten gibt. Und in 2-3 Monaten kommt schon die nächste Gen von AMD und Nvidia noch 2-3 Monate später kommen dann auch noch die Lowend-Karten der beiden. Wenn dann noch die 3060 und 6600 auf Lager liegen wird das nichts für Intel, beim Preis können die dann garnicht soweit runter. Und Intel ist ja auch noch zu Stolz beim Preis richtig die Hosen runter zu lassen.
Und wenn sie nicht mit der nächsten Gen Battlemage glaube ich mehr oder weniger zu AMD und Nvidia aufschließen und zwar nicht erst in 2 Jahren wenn wieder die neue Gen bei der Konkurrenz ansteht dann wars das. Dann werden die Gaming Karten eingestampft und es gibt nur noch Karten fürs Datacenter.
 
ShadowDragon schrieb:
Wenn es da so aussieht wie beim Rest des Treibers kann ich mir durchaus vorstellen das Intel ein paar GB mehr vram schluckt als die Konkurrenz (für den selben Task).
Ist so, sieht man vor allem in dem Vergleichsvideo welches vor ein paar Tagen hier gehostet wurde. Da verbraucht die A380 oft fast die doppelte Menge an VRAM als die AMD oder NVIDIA Karte.
Mich hatte es schon gewundert warum im thread dazu nie ein Wort verloren wurde.
 
  • Gefällt mir
Reaktionen: edenjung, E2K3 und Mimir
john.smiles schrieb:
Das hat bis jetzt keinen Hersteller abgehalten, siehe AMDs 5700er Serie, deren Treiber bei Hardwarebeschleunigung wie im Browser Spiele hat abstürzen lassen.
Mag sein, aber bei Intel liegt noch bedeutend mehr im argen
 
  • Gefällt mir
Reaktionen: edenjung
Ok, ne RTX 3060 kostet aktuell um die 380 Euro. Damit muss sich Intel messen.
Da die Intel Treiber noch verbesserungswürdig sind und die Karte mehr Strom verbraucht als die Konkurrenz und da sowohl Nvidia als auch AMD bald neue Karten rausbringen kann Intel eigentlich nur über den Preis dafür sorgen dass Leute die Intel Karte kaufen.
Wenn Intel einigermaßen clever ist verkaufen sie die A770 für 299,- Euro (Steuern bereits mit drin). Ansonsten wird das Teil ein Ladenhüter werden.
 
  • Gefällt mir
Reaktionen: Vitec und boypac007
In 1080p 14% schneller als eine RTX 3060 ist ungefähr RX 6600 XT (160W) Niveau, zieht man Intels Cherrypicking-Bonus ab, dürte man auf RX 6600 (132W) Niveau herauskommen. Mit 225W ist das natürlich suboptimal für Intel.
 
  • Gefällt mir
Reaktionen: edenjung, DF86, E2K3 und eine weitere Person
Mal warten mit Lob und Tadel bis das fertig ist und die Kinderkrankheiten ausgemerzt wurden. Als Ersatz für meine 2060 Mini kann ich mir das auf jeden Fall gut Vorstellen.
 
Schinken42 schrieb:
. XeSS soll ja ebenso wie FSR herstellerübegreifend nutzbar sein. Demnach braucht es keine besondere Hardware und wird auch auf den kleineren Modellen funktionieren.
Jein. XeSS ist nur in der DP4a Variante herstellerübergreifend lauffähig, hat dabei aber vermutlich schlechtere Performance und/oder Bildqualität.

Die XMX Variante bleibt Arc vorbehalten.
Ergänzung ()

catch 22 schrieb:
das ist letzlich nur logisch.
XeSS ist wie DLSS und FSR ja für eher höhere Auflösungen, also nicht unbedingt "bereits" FHD, geeignet... und für WQHD reicht die Performance der kleinen 300er Arc nicht im Ansatz, als dass man dann noch was mit XeSS was retten könnte
Auch in niedrigen Auflösungen helfen DLSS und FSR, dann eben primär nur auf den kleinen Karten, eben weil die selbst mit 1080p kämpfen.

DLSS auf einer 3050 zB bringt massive Verbesserung.
 
  • Gefällt mir
Reaktionen: E2K3 und Czk666
Y-Chromosome schrieb:
Ich spiele eh fast nur noch Spiele wie Europa Universalis IV, da ist Grafikleistung zweitrangig.

TomGamer schrieb:
Dafür reicht die iGPU.
UE IV ist DX9, sprich Intel Emuliert das ganze nur. Ohne starke CPU kommen da nicht viele Frames bei rum
1662131507248.png
Es fällt klar auf, selbst mit 5800X3D ist die 380 CPU limitert, bei gerade so >60 FPS 1% lows
Und CSGO ist alles andere als CPU intensiv.
EU IV dürfte da deutlich anspruchsvoller sein und entsprechend richtig hackelig werden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rockstar85 und edenjung
Ragnador schrieb:
Toll 57% schneller. Trotzdem nur 13 fps. Und bei einem egoshooter mit 36 fps nicht wirklich spielbar.
So, und nun lernste noch was das schöne an Prozenten ist: sie skalieren natürlich mit dem Basiswert mit.

Stell also zB die Settings runter, dass die Baseline eben nicht 23, sondern 50fps ist. Dann bringen die 57% mehr dich schon auf satte 78fps.
 
  • Gefällt mir
Reaktionen: Schinken42
andi_sco schrieb:
Drei sind immer besser, als zwei
No pun intended :D

Aber ja, bin da voll bei dir. Konkurrenz belebt das Geschäft und wenn eins klar ist, dann die Tatsache, dass die Architektur selbst durchaus gelungen zu sein scheint. Einen passenden Treiber dafür zu schreiben, der mit den unzähligen Spielen und Hardware-Kombinationen da draußen problemlos kooperiert, das ist eben eine Herausforderung, die man keineswegs unterschätzen darf. Auch AMD, damals sogar noch ATI hat viele Jahre gebraucht, bis der Treiber funktionell, komfortabel und beschleunigend auf einem Niveau war, das mit nVidia mithalten konnte.
 
Zurück
Oben