News Intel Arc A770 („Alchemist“): Benchmarks in 1080p und 1440p mit XeSS und Raytracing

Shoryuken94 schrieb:
Das stimmt. Die Treiber waren zu beginn eine absolute Katastrophe. Anders als AMD dürfte Intel aber zumindest in den Foren nicht so sehr den Stein im Brett haben, wie AMD. Was da teilweise argumentiert wurde, dass das ja gar nicht sein kann und das die Abstürze bestimmt eine andere Ursache haben müssen etc. Die Karten waren zu beginn in einem Zustand, wie man sie eigentlich nicht auf den Endkunden loslassen konnte. miese Performance in Spielen ist das eine. Blackscreens und Abstürze etwas ganz anders.

Was hier wieder für ein Müll geschrieben wird! Hattest du denn jemals eine RX 5700?!

Also ich habe seit Release eine RX 5700XT. Die läuft auch heute noch wunderbar in meinem Rechner. Zwei Bekannte haben ebenfalls eine und auch die haben keine Probleme.

Immer dieses Halbwissen. Und auch wenn wir nie Probleme hatten kann es natürlich sein, dass es bei gewissen Spielen mal welche gab. Wie bei nVidia z.B. auch. Dies wird gefixt und gut ist. Solange dies selten der Fall ist, ist alles in Ordnung.

Bei Intel scheint man nun mal Betatester zu sein. Denke nicht, dass man dies vergleichen kann.
 
  • Gefällt mir
Reaktionen: simosh, Mario2002 und dersuperpro1337
guggi4 schrieb:
Bei ultra läuft bei Karte A der Vram voll, bei Karte B nicht, daher große FPS Unterschiede im nicht spielbaren Bereich.
Ist hier aber nicht der Fall. Sieh doch einfach ein, *sein erster Kommentar war Quatsch und fertig.
Ergänzung ()

Wolwend_the_Orc schrieb:
Was hier wieder für ein Müll geschrieben wird! Hattest du denn jemals eine RX 5700?!
Ich hatte eine.

Es stimmt schon, die RX 5000er hatten das erste halbe Jahr massive Treiberprobleme. Natürlich war davon nicht jeder betroffen, du u.a. nicht. Das schmälert aber nicht die Erfahrungen anderer. Deine Anekdoten widerlegen nicht die Anekdoten anderer Nutzer, also halt mal lieber den Ball flach.
 
Zuletzt bearbeitet:
Powl_0 schrieb:
Ist hier aber nicht der Fall. Sieh doch einfach ein, dein erster Kommentar war Quatsch und fertig.
Nur gut, dass der Kommentar gar nicht von mir war.
Hab dir nur ein Beispiel gegeben, wo deine Behauptung, dass man das immer prozentual rechnen könnte, nicht stimmt. :rolleyes:
 
guggi4 schrieb:
deine Behauptung, dass man das immer prozentual rechnen könnte, nicht stimmt. :rolleyes:
Soll ich jedes mal jeden Ausnahmefall listen? Gibts hier nicht die Annahme eines Minimum an Kompetenz bei den erhobenen Werten, dass also dein genannten Fall hier ausgeschlossen ist?

Ich dachte es wäre genug, auf das generelle Verhalten von Prozentrechnung hinzuweisen, nachdem das Problem im ersten Kommentar (nicht deiner, pardon) das Abwinken wegen niedriger Baseline war.

Man muss beileibe nicht jede Diskussion aufs pingeligste runterbrechen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Colindo
Easy1991 schrieb:
Intel hat voll und ganz auf mining gesetzt 🥴
Koduri hat schon mit Vega eher Rohleistung statt praktische Grafikleistung abgeliefert.
Kann tatsächlich sein dass Intel drauf gesetzt hat und würde auch den gammligen halbgaren Treiber erklären wo kein DX9 Titel gescheit läuft. Braucht man beim Mining auch nicht.

Die Benchmarks sind natürlich alles ausgesuchte Top DX12+Vulkantitel. Bei allen anderen siehts wohl eher mies aus. Aber wenn der Preis stimmt und es einigermaßen mit dem Treiber klappt wär ich sogar dabei. Die ganz alten Kamellen wird man schon irgendwie ans laufen bringen.
 
Die Arc schneidet aber auch im Mining nicht gut ab...
 
Denkt bitte daran, dass die 3060 vergleichsweise so gut wie keine Raytracing Einheiten hat und die Intel ARC ein richtiger Schluckspecht in Sachen Stromaufnahme ist.
Das relativiert die ganzen Intel-Angaben sofort wieder und macht einen stutzig, warum nicht zuerst einmal ein "vernichtender" Standardbench präsentiert wird, der für die Käufer dieser Einsteigerkarten für Gamer grundlegend viel interessanter ist?
Denn wer will mit diesen Karten mit 30-60 Bildern in Raytracing rumruckeln?
Jetzt schon. Morgen sieht es noch krasser also lahmer aus.
Spiele wie Cyberpunk sind doch nur der Anfang.
Wer jetzt der Meinung ist, er würde dann einfach die Raytracing-Einstellungen "etwas" runterdrehen, der vergisst, dass er in vielen Fällen und zukünftig wohl grundlegend dann auch gleichbedeutend wichtige Grafikfeatures mit deaktiviert.
Nicht nur bestimmte Raytracing-Berechnungen, sondern sogar umfassende Bildverbessernde Optionen.
Das wurde schon in Tests festgehalten, wo man z.B. bei der 3050er Klasse dann versucht hat Spiele einigermaßen spielbar zu machen.
Viele Spiele bieten nämlich mittlerweile Zwangsbedingungen in den Grafikoptionen.
Man stellt also nicht mehr nur einfach die Details ein wenig runter, so dass dann Schatten, Spiegelungen etc. weniger hoch auflösende berechnet werden, sondern einige Dinge davon sofort aus.
Und nicht nur das, was der Schalter einem impliziert.
Wer also versucht mit Raytracing niedrig zu zocken, hat also mit Pech ein schlechteres Bild als mit Standardberechnung und dann aber hohen Einstellungen.
Das muss man natürlich von Spiel zu Spiel sehen.
Man freut sich also über höhere Bildraten, aber die kommen zumeist gar nicht durch etwas verwaschenere Darstellungen, sondern davon, dass etwas bei den Berechnungen gar nicht mehr dargestellt wird (z.B. die Spiegelungen merkt man schon).
Nur mal so als Hinweis.
 
  • Gefällt mir
Reaktionen: simosh und Onkel Föhn
Powl_0 schrieb:
Gibts hier nicht die Annahme eines Minimum an Kompetenz bei den erhobenen Werten, dass also dein genannten Fall hier ausgeschlossen ist?
Genau mit solchen Beispielen wird doch ausgerechnet im Low-end bei beispielsweise 4gb gegen 6gb Karten getestet und am Ende von riesigen prozentualen Unterschieden geschrieben, welche bei spielbaren Settings und FPS plötzlich verpuffen.
Außerdem ist in so ziemlich jedem Spielebenchmark ersichtlich, dass unterschiedliche Architekturen oft unterschiedlich stark auf gesenkte Settings reagieren, ein Extrembeispiel aus früheren Zeiten etwa Tesselation.

Da du aber offensichtlich keinerlei Interesse an einer sachlichen Diskussion hast und bereits auf meinen ersten, vollkommen nüchternen Beitrag patzig reagiert hast, klinke ich mich auch wieder aus.
Ergänzung ()

Powl_0 schrieb:
Soll ich jedes mal jeden Ausnahmefall listen?
Wenns so viele Ausnahmefälle gibt, kann man vielleicht einfach von keiner allgemein gültigen Regel sprechen?
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Dass XeSS der Intel Arc GPUs (mehr als) konkurrenzfähig zu den Techniken der Konkurrenz sein könnte (DLSS2.0, FSR 2.0) wurde schon eine Weile gemunkelt und natürlich müssen da zuerst Tests abgewartet werden.

XeSS könnte (neben AV1 und den angepeilten, spürbar niedrigeren Verkaufspreisen der Alchemist Grafikkarten) der bisher einzige Lichtblick bei Intels erster dGPU-Halbgeneration (Einstiegs- und Mittelklasse-GPUs, für eine Vollgeneration fehlen Ober- und Luxusklasse-GPUs, welche ich mittelfristig von Intel erst einmal nicht sehe und das ist auch gut so, nicht zu überstürzen und sich erst einmal zu etablieren).

Hoffentlich bombardiert die von nVidia jetzt beschleunigte Preissenkungsinitiative (das war ja für den September zu erwarten, aber gebrauchte Karten bei eBay & Co. dürften weiterhin für viele die bessere/günstigere Wahl sein), wegen der hohen Ampere Lagerbeständen und den immer noch von nVidia, Boardpartnern und Händlern viel zu hoch gehaltenen Grafikkartenpreise um UVP/MSRP herum ca. 2 Jahre nach Marktstart bzw. zum auslaufen der GPU-Generationen, nicht den Marktstart der Arc A 750 und A 770 Karten von Intel.

Für Neueinsteiger bzw. solche die keine Retro- oder Klassikerspiele (auf älteren APIs basierend) anpeilen oder sich nur auf eine Handvoll neue Spieletitel (eSports, MOBA, MMORPG, etc.) konzentrieren, könnten die Alchemist Arc GPUs von Intel wirklich die beste (im Sinne von lohnendste Preis-Leistungs-)Kaufoption sein.

Ob die relativ hohen (gelisteten) Kosten für kommende neue ATX 3.0 Netzteile (von Seasonic oder Silverstone) so viele auf Lovelace und RDNA3 umsteigen werden lassen (wo diese Netzteile z.T. nötig sein werden und die Anschaffungskosten weiter in die Höhe treiben) ist fraglich.

1662202676555.png



1662202717299.png

Wenigstens sind die Intel Arc Alchemist Karten von diesen für Käufer nötigen Mehrausgaben für ein ATX 3.0 PSU nicht betroffen, aber ab RTX 4080(Ti) und RX 7800XT/RX 7900 könnten diese schon eine Notwendigkeit sein (für Early Adopter und Hobby-Enthusiasten sicherlich ein "must-have").
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Vitec und Onkel Föhn
Onkel Föhn schrieb:
Nur dass die 55 Watt ein Drittel (33 %) sind !
Und ja, natürlich wird der Treiber das Seinige dazu beitragen, sowie die "fallenden" Preise ...

MfG Föhn.
Ja stimmt schon 33% hört sich nach viel an. 55 Watt sind aber dann nicht mehr so viel. Und irgendwie juckt das auch kaum jemanden in den Threads zu Intel ARC dass die Effizienz auch so schlecht ist. Ich weiß noch AMD wurde mit der RX4xx und 5xx sowie den Vaga Chips dafür regelrecht zerrissen.
Dafür wird Intel ständig dafür gelobt das sie am Ende des Lebenszyklus von RDNA2 und Ampere gerade mal mit der Top Karte die Performance der Mittelklasse mit mehr verbrauch und irgendwelchen Beta Treibern erreichen. Die außer Intel keiner testen kann da weder die Karte noch die Treiber veröffentlicht worden sind.
Ein dritter im Bunde bei Grafikkarten wäre ja wirklich was. Aber wenn Intel nicht Ende 2023 Anfang 2024 mit der nächsten Generation nachlegen dann wird das nichts. Und ich denke in 6 Monaten werden die Aktionäre dann auch Fragen stellen. Und dann ist es ganz schnell vorbei mit Intel GPUs für den Endverbraucher.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Powl_0 schrieb:
Die Arc schneidet aber auch im Mining nicht gut ab...
War eher auf die knappheit bezogen, da hätte man alles gekauft, gtx 1060 für 280 Euro war ja vor 1 Jahr keine Seltenheit im gebrauchtmarkt
 
  • Gefällt mir
Reaktionen: Onkel Föhn
so wie die intel gpu schon vor über einem jahr behandelt wurden, dachte ich wirklich dass wird spätestens anfang 2022 was und angesichts der krassen preislage damals, wäre so ziemlich alles was halbwegs brauchbar ist, gekauft worden.
aber jetzt ist es einfach nur "too little, too late"
 
  • Gefällt mir
Reaktionen: Onkel Föhn
guggi4 schrieb:
Genau mit solchen Beispielen wird doch ausgerechnet im Low-end bei beispielsweise 4gb gegen 6gb Karten getestet
Hier aber nicht. Ergo ist die Ausnahme hier nicht relevant.
Intel ist ja sogar recht vorbildlich bei der Angabe der Testeinstellungen in den Fußnoten. Sie machen auch viel Quatsch im Marketing, aber blöd sind sie dabei nicht.

guggi4 schrieb:
Wenns so viele Ausnahmefälle gibt, kann man vielleicht einfach von keiner allgemein gültigen Regel sprechen?
Wenn es in 95% der Fälle stimmt, dann aber zehn verschiedene kleine Ausnahmen gibt, die alle für die Diskussion irrelevant sind?

guggi4 schrieb:
Da du aber offensichtlich keinerlei Interesse an einer sachlichen Diskussion hast
Ha! Doch habe ich, woran ich aber kein Interesse habe ist so eine kleinkarierte Art, wo jedes Fitzelchen angeprangert wird und man zu keiner sinnvollen Diskussion mehr kommt.
Wenn ich eine detaillierte Ausarbeitung schreiben will, dann sicher nicht in den Kommentaren irgendeines Forenbeitrags.

Und deshalb finde ich es auch bei sachlicher Diskussion vollkommen in Ordnung, Ausnahmen zu überspringen, die thematisch nichts beisteuern.
 
guggi4 schrieb:
Genau mit solchen Beispielen wird doch ausgerechnet im Low-end bei beispielsweise 4gb gegen 6gb Karten getestet und am Ende von riesigen prozentualen Unterschieden geschrieben, welche bei spielbaren Settings und FPS plötzlich verpuffen.

Bei der Leistung nicht unbedingt, bei der Bildqualität schon. Das sieht man in fps Balken nur bedingt.


Nicht unerwähnt bleiben soll, dass bei der Radeon RX 6400 längst nicht alles Gold ist, was glänzt. Nicht selten geht die gute Performance auf Kosten der Bildqualität. Dafür ist die Grafikkarte nur indirekt verantwortlich: Das Daten-Streaming moderner Spiele ist darauf getrimmt, die Bildrate zu retten. Genügt der Speicher einer Grafikkarte nicht, wird an den Oberflächendetails gespart. Dies geschieht bei einer langsam angebundenen 4-GiByte-Grafikkarte wie der Radeon RX 6400, RX 6500 XT oder auch Geforce GTX 1630/1650 öfter, als einem lieb ist - und tritt in dieser Form nicht auf der Intel Arc A380 auf.
https://www.pcgameshardware.de/Inte...A380-kaufen-Benchmark-Test-Release-1402072/3/



Intel hat 17 Raytracing Titel in der Folie. AMD hat in ihren Marketingfolien eine viel viel kleinere Auswahl und kein Hahn kräht danach. In den Zen 4 Folien gab es 4-5 Spiele.

Titel mit Raytracing Support gibt es noch nicht so viele, Intel hat eine beachtliche Anzahl davon getestet. Hätten sie sich davon 4-5 gute Ergebnisse rausgepickt, das wäre ausgesucht. Nein sie haben sogar Titel drin, wo die 3060 vorne liegt. Das einzige was ausgesucht ist, ist DX12. In RT Tests geht das nicht anders.
 
Nach der zuerst prosaunten Leistung, eigentlich enttäuschend! Zuerst hiess der Konkurrent 3070, wenn nicht gar Ti, davon ist nichts geblieben. Und jetzt kommt noch eine neue Generation, hoffentlich arbeitet Intel in Zukunft ein bisschen härter, mich interessiert das untere Mittelfeld nicht, da ich ein Graka für einige Jahre kaufen.
 
  • Gefällt mir
Reaktionen: TomGamer
Wenn die Treiber mitspielen würden, hätte das auch klappen können. Von den technischen Daten wäre das im Bereich des Möglichen gewesen. Aber ja das ist in weite Ferne gerückt. Es wird interessant zu sehen sein, wie sich die Leistung in den nächsten Monaten entwickelt. Im Optimalfall, also unter DX12, könnte die A770 Richtung 3060 Ti vorrücken, an mehr glaube ich nicht.
 
mkl1 schrieb:
Das einzige was ausgesucht ist, ist DX12. In RT Tests geht das nicht anders.
Vulkan hat auch RT. zB in Quake 2 RTX oder Doom Eternal.
 
Bzgl. Leistung weiß ich echt nicht was ihr erwartet habt. Sollten die Benches stimmen und man kann mit einer 3060 mithalten bzw. hier und da übertrumpfen ist doch alles gut. Das die a380 Mist ist steht nicht zur Debatte aber wir reden hier vom Topmodell. Lässt man die IGP mal aussen vor, ist von 0 auf 3060 Niveau doch mega. Größter Kritikpunkt ist für mich nach wie vor der instabile Treiber und das die a770 bisher nicht verkauft wird. Aber noch bin ich guter Dinge. Intel wird das in den Griff bekommen zu unser aller Vorteil.
 
Ich bin nicht enttäuscht, aber hätte die A770 gerne als Gegenspieler zur 3060Ti gesehen.
Allerdings von den Specs ausgehend, sollte da noch ein wenig Potential durch Treiber vorhanden sein.
Ansonsten steht und fällt es natürlich auch mit dem Preis wie immer.
XeSS Balanced scheint auch schon einen guten FPS Sprung zu bringen mit RTX, aber auch hier muss man noch Tests abwarten, wie es bezüglich Qualität gegen FSR und DLSS oder auch XeSS Performance aussieht.
Auf jeden Fall dürfte vielen die Leistung der A770 reichen, wenn wir uns maximal bis 350€ bewegen und die Graka hat auf jeden Fall genug Vram für ihre Lebenszeit :daumen: .
 
Zurück
Oben