Notiz Intel Arc A580: Erneut tauchen Benchmarks der Alchemist-Mittelklasse auf

Dann freu dich auf die "Megaforce D4RT 5060 Super Ti Rog Strix" nĂ€chster Jahr. đŸ«  (ĂŒbrigens von ASUS) đŸ€Ș
 
  • GefĂ€llt mir
Reaktionen: Mcr-King und HaRdWar§FreSseR
Nicht schlecht schneller als eine RX 7600 non-XT. Das hÀtte ich Intel vor ein paar Jahren nicht zugetraut mal sehen, vielleicht haben wir in 5 Jahren Produkte, die mit der Spitze mithalten kann, wir werden sehen spannend.
 
  • GefĂ€llt mir
Reaktionen: Mcr-King
HaRdWar§FreSseR schrieb:
Nicht schlecht schneller als eine RX 7600 non-XT
In synthetischen Benchmarks, dort war Arc schon immer ĂŒberdurchschnittlich.
In Spielen schafft es ja nicht einmal eine A770 vor der 7600 zu bleiben, eine A580 ist noch unter der A750 und wird keine Chance haben.
 
  • GefĂ€llt mir
Reaktionen: konkretor und HaRdWar§FreSseR
Man, darf doch aber noch hoffen. ^^
 
  • GefĂ€llt mir
Reaktionen: Mcr-King
Da sich die Architektur allerdings nicht geĂ€ndert hat ist die Hoffnung relativ unbegrĂŒndet ;)
Falsche Hoffnung fĂŒhrt nur zu unnötigen EnttĂ€uschungen 😛
 
  • GefĂ€llt mir
Reaktionen: HaRdWar§FreSseR
SVΞN schrieb:
Intel Xe HPG 2 („Battlemarge“) werden wir voraussichtlich auch erst im Q4/2024 sehen. Alles sehr wenig erbaulich was Intel da macht.
Nicht wirklich oder?!
Nach fast 3 Jahren erst die 2. Gen?! So gewinnt man doch keine Marktanteile etc... kann doch wohl nicht so schwer sein fĂŒr ein Unternehmen wie I N T E L.
Unglaublich!!
Also fĂŒr Intel und den Konkurrenzdruck habe ich stark auf Q4 2023 gehofft...
 
  • GefĂ€llt mir
Reaktionen: Mcr-King
75% Recheneinheiten der ARC 770 8GB könnte man auch leicht im Kopf ausrechnen, wo die Karte letzendlich ziemlich punktgenau einzuordnen ist.
Die Infos gab es aber auch schon vor einem Jahr.
Es stellt sich nur die Frage, warum die Karte nie erschienen ist.

Vielleicht, weil die Fertigung so gut war, dass jede teildefekte oder lahmende 770 noch gut genug fĂŒr eine 750 war.
Schließlich musste man auch von den hohen Preisen der Miningzeiten wieder runter, und da konnte Intel sich einen nochmals reduzierten Preis fĂŒr eine nicht notwendige 580 halt sparen, zumal man ja eh noch die ganze Grafiksparte in den Quartalszahlen abschreiben musste, da man ĂŒber 1 Jahr zu spĂ€t in den Verkauf ging und mit viel zu niedrigen StĂŒckzahlen.
Eine komplette Chip-Eigenentwicklung zurĂŒckzuhalten und gar nicht erst auf den Markt zu bringen ist auch unsinnig und zu teuer.

Alle weiteren News sind eigentlich uninteressant, da man seit einem Jahr immer nur den gleichen Kram wiederholt, es sei denn, die Karte wird tatsĂ€chlich mal öffentlich angekĂŒndigt, und/oder die technischen Werte Ă€ndern sich ĂŒberraschender Weise, was sich signifikant auf die zu erwartende Leistung auswirken wĂŒrde.

Jedenfalls habe ich die komische Produktpalette von Intel nie verstanden.
Man hĂ€tte mit 8,16,24 und 32 Cores alle Bereiche abdecken können, wo jeder Nutzer dann die passende Leistung fĂŒr sein Geld aussuchen könnte.
Warum stattdessen quasi 3 "High-End"gerĂ€te und ein fast untaugliches Einsteigerteil erscheinen sind, ist wirklich höchst merkwĂŒrdig.

Übrigens: eine Radeon 7600 ist genau 10% schneller als eine ARC 750, und "schlĂ€gt" eine ARC 770 sozusagen in der Nachkommastelle.
Eine ARC 580 wird also sicherlich auf jeden Fall nochmal 10% weniger Indexpunkte erzielen mĂŒssen.
Man kann sich da gerne auf einem Ausdruck einen Punkt markieren und an die Wand pinnen. ;-P

https://www.pcgameshardware.de/Rade...lease-preis-Benchmark-Specs-Review-1419906/2/
 
  • GefĂ€llt mir
Reaktionen: Alesis
Steini1990 schrieb:
Ob das sinnvoll ist die noch zu launchen? Besser wÀre es wenn Intel sich ganz auf Battlemage fokussiert.
Nur das an Battlemage aktuell andere Menschen arbeiten als an einer neuen Grafikkarte, die aus einem bestehenden Chip erarbeitet wird.

Zudem kannst du selbst das Team, das aktuell ab Batlemage arbeitet, nicht 100 % nur an Battlemage arbeiten lassen, da wirst du irgendwann Irre! Man benötigt selbst fĂŒr diese Teams noch ein zweites „Projekt“ als Ausgleich, damit man mal die Gedanken frei bekommt und danach gestĂ€rkt an das Projekt zurĂŒck kann.
TigerherzLXXXVI schrieb:
Ich bin der Meinung, dass jeder Lehrgeld bei einer ersten Generation von Gaming-Grafikkarten bezahlen muss - sogar Intel... Von daher sollte man nicht ĂŒbermĂ€ĂŸig hart mit Team Blau ins Gericht gehen.
Das Hauptproblem war hier eher das Marketing und wie Raja als auch sein Marketing-Freund von AMD - der ja auch zu Intel ging - damit umgegangen sind.

HÀtte subtil kleinere Brötchen gebacken, wÀre Arc ein Achtungserfolg gewesen. Nicht auf Augenhöhe aber eine Marke, die man wohlwollender aufgenommen hÀtte.

Da hier die Erwartungen auch von Intel hoch geschraubt wurden, hat man EnttÀuscht.
Draco Nobilis schrieb:
Nur das die DG1 die erst Gen war.
Ja und Nein zur gleichen Zeit. DG1 baute auf dem Pre-Xe auf, bewegte sich in der Form zwischen Gen11 und Xe und ist in der Form eher ein Xe 0.5.

Dazu waren die DG1 Boards nur schwer zu bekommen und stark eingeschrÀnkt. Das war eher ein Testballon, der es irgendwie in den Handel geschafft hat, da aber eigentlich nichts zu suchen hatte.
Draco Nobilis schrieb:
Arc ist die DG2 und damit zweite Gen.
Arc ist die erste Karte seit ĂŒber 20 Jahren, die man wirklich als GPU bezeichnen kann. Hier war es nicht mehr nur ein Testballon, sondern wirklich eine Karte mit neuem Treiber und Co.
andi_sco schrieb:
Ne, nichtmal ansatzweise.
Ja und Nein zur gleichen Zeit. Arc ist fĂŒr einen "ersten" Wurf seit 20 Jahren durchaus gelungen und viele Probleme hat Intel in den Griff bekommen.

Die Erwartungen waren am Ende zu hoch und Intel hat hier auch einige Fehler in der Kommunikation gemacht. Ja, die Karten leisten - gemessen an den Eckdaten - zu wenig, ja es gab massive Treiberprobleme am Anfang und auch heute gibt es Sachen, die so nicht gut sind, aber alles im allem war das kein schlechter erster Versuch. Da gibt es andere, die mit Àhnlichen Eckdaten noch weniger gepacken bekommen.

Wobei ich mal eine PowerVR oder gar eine Mali sehen wollen wĂŒrde, wie gut diese sich machen. :)
 
  • GefĂ€llt mir
Reaktionen: W4RO_DE, Mcr-King, whynot? und eine weitere Person
DevPandi schrieb:
Da hier die Erwartungen auch von Intel hoch geschraubt wurden, hat man EnttÀuscht.
OK, dann hĂ€tte sich Intel tatsĂ€chlich keinen Gefallen damit getan. Ich habe das Marketing von Arc Alchemist im Vorfeld nicht großartig verfolgt.
 
DevPandi schrieb:
Arc ist fĂŒr einen "ersten" Wurf
Treiber
Treiber
Treiber

Kann doch nicht sein, das meine DG1 nach einem Beta Treiber nicht mehr funktionieren wollte

Und den Blödsinn, das es ja nach 20 Jahren bla bla ist: iGPU - die brauchten auch Treiber
 
@TigerherzLXXXVI
Alchimist hat halt Theoretisch die Leistung, und ich bin mir sicher, im Labor, bei entsprechenden Bench war er seinem Nvidia und AMD Pendant ebenwĂŒrdig. Man war wohl bei Intel dann zu Naiv zu glauben, dass rechtzeitig auf Games ĂŒbertragen zu können. Aber Games sind nun mal etwas ganz anderes, weshalb ja Nvidia und AMD so viel in die Treiber steckt. Vielleicht lehne ich mich jetzt etwas zu weit aus dem Fenster, aber es wĂŒrde mich nicht wundern, wenn die Treiber bei Grafikkarten so ziemlich das beste ist, was es im Bereich Treiber gibt. Mit was die Treiber alles hantieren mĂŒssen können.

Bei einem Drucker reichen wahrscheinlich "Gute" Treiber aus, damit der Drucker meistens Reibungslos lĂ€uft. Gibt es auch nicht so viel Fremdeinfluss, wie durch Games. Intels Alchimist Treiber sind vielleicht sogar auch eigentlich "Gut", wenn man die KomplexitĂ€t berĂŒcksichtigt. Aber Nvidia und AMD haben sicherlich "sehr Gute" Treiber, und dann gewinnt man selbst mit "Guten" Treiber keinen Blumentopf mehr, wenn das Minimum nun mal "sehr Gute" Treiber sind.
 
andi_sco schrieb:
Treiber
Treiber
Treiber

Kann doch nicht sein, das meine DG1 nach einem Beta Treiber nicht mehr funktionieren wollte

Und den Blödsinn, das es ja nach 20 Jahren bla bla ist: iGPU - die brauchten auch Treiber


Aber keine gaming Treiber, das ist der kleine aber feine Unterschied. Intels Grafik stack war viele Jahre lang optimiert fĂŒr langsame iGPUs, dementsprechend war der hohe CPU overhead ziemlich egal. FĂŒr Intel war es eher sinnvoller der CPU mehr Arbeit zukommen zu lassen. Der overhead ist ihnen bei den dGPUs vor die FĂŒĂŸe gefallen. Das Speichermanagement war optimiert auf den DDR/LPDDR Hauptspeicher, GDDR6 Speichermagement oder auch PCIe war nie ein Thema. Das sind Sachen, wo Intel dazulernen muss. Game ready driver gab es praktisch nie, jetzt bringt Intel bei fast jeden grĂ¶ĂŸerem Spiel ein game on driver. Der Fokus hat sich seit Alchemist stark verĂ€ndert, das merkt man deutlich.

Übrigens sieht Alchemist in den neuen Spielen deutlich besser aus. In den letzten beiden game Tests von Computerbase Ratchet & Clank und Jagged Alliance 3 liegt eine A750 vor einer RX 7600 und je nach Auflösung und settings deutlich. Sobald Raytracing nur leicht ins Spiel kommt, knickt AMD deutlich mehr ein.
 
In Sachen VRAM lernt man offenbar von NVIDIA.
 
  • GefĂ€llt mir
Reaktionen: Draco Nobilis und Mcr-King
Bin mal gespannt wo die sich preislich einordnen wĂŒrde....
 
Ohne dass die A380 noch ein paar Euro grĂŒnstiger wird, wahrscheinlich eher Richtung 199 Euro als nach 169 Euro
 
Gibt es eigentlich gĂŒnstige De-/Encoder Steckkarten die man per Software aktualisieren kann?
Wenn ich ne Àltere Graka oder ne iGP besitze die mir ausreicht wÀre so etwas doch optimal.
Oder man verbaut so einen Chip (falls billig möglich) gleich auf jede Graka oder integriert es in die CPU/iGPU/APU.
StĂ€ndig neue Grafikkarten kaufen nur damit man die neuesten Codecs integriert hat ist mMn. nicht mehr zeitgemĂ€ĂŸ.
 
Das wĂ€re schön und zu einfach, dann wĂŒrde keiner mehr neue hardware kaufen. ;)

Aber so Ă€hnlich funktioniert es doch mit der CPU, die kann das zwar nicht in Hardware aber eben in Software und die kann man aktualisieren. Das Encoden dauert nur meistens lĂ€nger, dafĂŒr ist das Ergebnis aber auch oft besser.

Ein Chip lÀsst sich eher selten auf etwas aktualisieren was er gar nicht implementiert hat.
 
ZurĂŒck
Oben