News Intel Arc A580: Alchemist-Mittelklasse im Spiele-Benchmark

Es ist einfach so, wenn die bei Intel das zeigen wollten um etwas zum vergleich zu bieten, dann hätten die eine CPU genommen die bereits breit verfügbar ist. Mit einem Engineering Sample bleibt das etwas shady, das kann ja sonstwie eingestellt sein, das muss sich an keinerlei Norm halten :D
 
Wann soll eigentlich Release sein ? Weil nächstes Jahr kräht kein Hahn mehr danach…
 
  • Gefällt mir
Reaktionen: Hexxxer76
Egal was die sagen/ankündigen, da kannst du dich bei dem aktuellen zustand von Intel einfach nicht drauf verlassen. Die wirken seit einiger Zeit mehr wie nen Hühnehaufen als ne seriöse Firma.

Halte es einfach nach dem Motto "when it's done"
Also mach dir nen Tee und genieße den zwischenzeitlich :D
 
  • Gefällt mir
Reaktionen: Piecemaker und Bigfoot29
Immerhin, EIN Spiel (ebenchmark) scheint schon mal gut zu laufen.
… jetzt müssen nur noch die Treiber für die ganzen restlichen, gefühlt zehntausende, Titel angepasst werden.

Das wird intel wohl doch noch hinbekommen. … hüstel
 
  • Gefällt mir
Reaktionen: Piecemaker
Ich schlage CPU Rendering vor, einfach Core I Modelle rausbringen, die einen haufen Kerne mehr in die CPU, und nahe am Sockel die nach ATX3 neue Stromsteckersockel anbringen, damit da ~600W einfliessen könenn.

Da sollte schon was an Leistung bei rumkommen :jumpin:
 
Zock schrieb:
kräht kein Hahn mehr danach…
Warum? Wenn die Preise stimmen und WENN (!!) die Treiber funktionieren, dann kann da im low/mid segment durchaus Nachfrage herrschen.

Die Musik spielt eh in den billigen Regionen. Dort wird der Löwenanteil des Umsatzes mit Gamern gemacht.
 
So niedrig können sie im Preis gar nicht gehen, dass ich mir das Risiko einer solchen Karte antun würde. Außer ich würde nur ein Spiel zocken und wüsste, dass sie damit ordentlich läuft.
 
  • Gefällt mir
Reaktionen: simosh
Wer auch immer die kauft ist hoffentlich gut/geübt in Bugreports schreiben, mit denen die Entwickler was anfangen können. Im grunde will ich, das Intel wenigstens halbwegs Erfolg hat mit den Karten und weiter macht, denn wir können wirklich ganz dolle <3 einen 3ten Herstelle dedizierter Leistungskräftiger Grafikkarten brauchen!

Ich bin wirklich sehr gespannt wie sich die Karten unter Linux machen, wo sowieso ganz viel an Spielen per Schnittstellenübersetzer zu Vulkan gespielt werden. Und ein paar wenige dann per Opengl, wobei es sogar für Opengl ein in entwicklung befindlichen übersetzer zu Vulkan gibt. Am Ende könnte es sein, das Intel unter Linux nur reines Vulkan supportet?
Das es dazu Nachrichten gibt ist ja irgendwie unwahrscheinlich, weil die sich nichtmal im ganzen für Windows ausgeschissen haben :-)

Da kommt ja per Salami Taktik immer hier und da mal nen Infoschnipsel.
 
Zock schrieb:
Wann soll eigentlich Release sein ? Weil nächstes Jahr kräht kein Hahn mehr danach…
Hieß es nicht Fall 2022, also noch vor Winteranfang^^
Ich erwarte aber eine weitere Verschiebung (oder Paperlaunch)
 
Das nächste Raja Design Fail. Kommt das nur mir so vor oder hat der einfach nur ein extrem schlechtes Händchen mit seinen Architekturen. Golem hat ihm den R300 zugeschrieben. Laut euch war Wang für den R300 zuständig somit bin ich zu den Quellenangeben etwas verwirrt. Die letzten Kreationen schlugen jeweils in die unoptimierte Kerbe und dass auch nur im Mittelsegment.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: GT200b
find ich bei intel immer klasse. in ausgesuchten benches schaffen wir manchmal unser ziel, meist hängts aber überall, es wird am laufenden band verschoben und sachen versprochen die nicht gehalten werden.

falls die dinger jemals rauskommen hoffe ich für sie dass es immerhin abnehmer findet. im aktuellen zustand würde ich nichtmal geschenkt sowas haben wollen nach allem was zum spieleverhalten der A380 bekannt ist. daran ändert auch der bench einzelner games nicht wo möglicherwiese nur die sterne ausnahmsweise mal richtig standen unter denen die GPU das amcht was sie soll. con consistenz der ergebnisse und dem treiber noch garnicht gesprochen
 
  • Gefällt mir
Reaktionen: boypac007
Die sollen mal ordentliche WLAN Treiber und ordentliche integrierte Intel GPU Treiber abliefern.
Die GPU bei einem 10105 spinnt total in Windows 10 in kombination mit Outlook 365 und Excel 365
Die Gpu des 10105 hat noch nie funktioniert seit dem ich diesen Rechner habe. Im Grunde ist es mir egal ob Windows 10 Professional oder Intel die GPU Treiber nicht auf die Reihe bekommt. die Gpu des 8500 hatte auch massiv Probleme über Monate.

Solche Fehlfunktionen der GPU kenne ich von NVIDIA bzw. AMD GPUs nicht. Egal ob es Microsoft Windows bzw. die Binärtreiber in Gnu Linux betrifft bzw. noveau treiber auf diversen Live-CDs
 
Ich werde beim anstehenden Taiwan Urlaub die Augen offen halten - vielleicht bekomme ich ja eine Intel GPU in die Finger^^
 
  • Gefällt mir
Reaktionen: konkretor
qu3x^ schrieb:
Das nächste Raja Design Fail. Kommt das nur mir so vor oder hat der einfach nur ein extrem schlechtes Händchen mit seinen Architekturen. Golem hat ihm den R300 zugeschrieben. Laut euch war Wang für den R300 zuständig somit bin ich zu den Quellenangeben etwas verwirrt. Die letzten Kreationen schlugen jeweils in die unoptimierte Kerbe und dass auch nur im Mittelsegment.
Koduri und Wang sind beide an R300 beteiligt bzw mit im Team gewesen.
 
  • Gefällt mir
Reaktionen: konkretor, qu3x^ und boypac007
Mich interessiert da vielmehr die CPU.

16 physische Kerne.
 
Unbekannte Intel CPU mit 16 physikalischen und 16 logischen (???) Kernen vs nem 5600X bei der Nvidia Karte.
Dazu unterschiedliche RAM Bestückung - Takt unbekannt.
Von daher ziemlich bedeutungslos der Wert der A580 .
Und warum zum Henker steht bei AotS eigentlich beim 5600X "12 physical und 12 logical Cores" ???

Edit:
Niedrig Preset ist auch nice...
Was passiert denn in höheren Settings?
Vermutlich wird die Karte dann genauso massiv einbrechen wie die A380.
Das ganze sind warscheinlich "hinter dem Vorhang" lancierte Dinge aus der Intel Marketingabteilung und genauso viel wert wie diese super 3dmark Ergebnisse mit den Faketreibern.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Slashchat
Nicht schlecht. Mit der nächsten Generation könnte die Karten durchaus interessant werden. Leid er sind sie aber für alle Besitzer ab einer 3080 uninteressant.
 
Naja, Wenn Intel es genauso handhabt wie mit ihren CPUs kann das ja noch Jahre gehen bis da was raus kommt...warten wir es ab wie oft es noch verschoben wird...oder wieder eingestampft wird..Who knows..
 
SVΞN schrieb:
Aber warten wir mal ab, ob und wann wir die A-Serie überhaupt außerhalb von China zu Gesicht bekommen werden.

Wenn dann erstmal nur OEM Desktop PC, weil die Karten einzeln auf die breite Masse los lassen, endet in einem Shitstorm.

Es wird noch so 3-4 Generationen brauchen, bis Intel sich etabliert hat.

Hoffentlich dann nicht in Abhängigkeit von ihren CPUs/Chipsets, weil dann wird das ein Rohrkrepierer. Marktanteile mit Einschränkungen/Abhängigkeiten zu holen, ist gegen größere Konkurrenten eine ganz schlechte Idee.
 
Ich möchte ausdrücklich darauf hinweisen, dass auch hier wieder im Benchmark klar ersichtlich ist, dass die gesamte Intel ARC Technologie starke Probleme mit der Grafikausgabe hat.

Die extrem schwankenden Frametimes mit starken Rucklern sind ein absolutes No-Go. für echte Gamer und mindern das Spielgefühl extrem.
Selbst die optimierten Spiele scheinen noch immer nicht rund zu laufen.
Was nützen einem dann halbwesg vernünftige lange Benchmarkbalken, wenn das Gesamtergebnis diesem aber gar nicht entspricht?

Seit 20 Jahren wird über Sli und Crossfire etc. diskutiert und schlechtgeredet, weil man zwar in einigen Spielen hohe Durchschnittsframes erhält, aber das Spielerlebnis trotzdem nichts besser oder gar schlechter ist als mit einer Einzellösung.
Und genau das schafft Intel in einer einzigen GPU zu integrieren. Respekt! Für so viel Unvermögen als Hersteller von Hardware, wo man schon seit über 30 Jahren im Geschäft ist! Inkompetenz ohne Ende. Eine Frechheit, das an den Endkunden in einem nicht einmal Betatest würdigen Zustand zu verkaufen.

Bitte schaut euch immer die Werte an, die getestet werden.
Nicht die Zahl bei der Endausgabe ist entscheidend, sondern der Verlauf.
So schafft die ARC580 also ziemlich genau so viel Punkte, also Frames, wie die 3060. In diesem angepassten und "optimierten" Spiel.
Der interessierte Käufer wird sogar feststellen, dass die Maximalwerte sogar höher liegen, und das wird man sicherlich höchst positiv aufnehmen und sich sagen, ja die ist ja sogar in manchen Spielabschnitten sogar schneller, wie geil ist das denn?
Ja neee! Nein! So darf man das nicht sehen! Das ist sogar schlecht!
Denn wenn man sich nun fragt, ja wieso ist die denn nicht auch insgesamt schneller, wenn die doch im Prinzip etwas flotter sein kann?
Dann muss man mal auf die Rückseite der Medallie drehen, die so zerkratzt udn schmutzig ist, wie sie nun mal eben sein kann (siehe Sli/Crossfire in ähnlicher Weise).
Und nun sieht man, warum die Karte so schlecht ist:
Die Frametimes sind in vielen Spielen grottig!
Auch hier kann ich es sagen, ohne diese überhaupt gesehen zu haben.
Denn das sagt der hohe Unterschied zwischen Maximal und Minimalrate ja schon aus (natürlich in Bezug zu anderen Ergebnissen, die wesentlich "glatter" bzw. "gleichmäßiger" sind)
Die Karte schafft also mehr Bilder pro Sekunde als die NVidia Karte, rutscht aber gleichzeitig dauernd auf bis zu 78 im Vergleich zu 87 Bilder ab?!
Das ist ein ernsthaftes Problem!

Ihr lauft also in einem Spiel durch die Gegend, oder wie hier scrollt durch die Landschaft, und die ganze Zeit spürt ihr dieses leichte zuckeln, als wenn es nicht ganz geschmeidig läuft, die gefühlte Bildrate ist dadurch auch um einiges niedriger als sie eigentlich ist (als ähnlich dem Sli/Crossfire-Problem).
Dieses Gefühl könnt ihr auch haben, wenn ihr eine Karte wie die Radeon 6400 mit 4GB kauft, diese dann mit einem Spiel wie Far Cry 6 befeuert und dann im Spiel die Grafik auf Ultra stellt.
Dann wird ein Teil der Grafik über das langsame Mainboard nachgeladen und ihr bekommt auch diese Nachladeruckler im Spiel.

Ich möchte an dieser Stelle abschließend noch einmal betonen, dass ein großer Unterschied zwischen Minimal und Maximalframes in einem benchmark alleine noch nicht reicht, um über einen schwachen Frametimeverlauf urteilen zu können, aber wenn man im Vergleich dazu dann andere Benches hat, die das nicht oder weniger stark ausgeprägt haben, dann ist das aber sehr wohl eine Bestätigung, dass eben jene Karte dort ihre Probleme hat.
Das haben andere Karten auch imerm schon mal wieder in bestimmten Spielen gezeigt, das sieht man bei AMD und NVidia ja auch, dass mal zumindest bei der Veröffentlichung dann vielleicht auch bei einem frischen Spiel der Treiber noch nicht ganz flutscht.
Dann wird da nachgepatcht udn das wird weniger oder ist ganz weg, vielleicht auch mal nicht, wenn wie bei der RAdeon 6400 dann halt imemr noch zu wenig Speicher für die Benchmarkszene mit den zu hohen Details vorhanden ist udn man runterdrehen müsste.
Aber die Intel Karten haben ja jetzt bewiesen, dass es wohl eher grundlegend so ist und die Treiberentwicklung noch weit von einem Veröffentlichungstermin entfernt sind.

Also was hilft da nur? Warten, warten, warten.
Wenn man nicht experimentierfreudig ist, oder so ein Teil fürs heimische Regal haben will, dann sollte man lieber all die anderen in den kommenden Monaten udn vielleicht Jahren die Versuchskaninchen spielen lassen.
Die Leistung ist ja im Prinzip wirklich da, weil es ja oft in "optimierten" Spielen schon hohe Maximalframes gibt, die kommen ja nicht einfach so zustande, aber die extrem kaputten Werte im Unteren Bereich (Igor hat bis zu 2%!!! extrem schlechte Werte ermittelt) machen derzeit wirklich alles zunichte.
Das Ganze ist in meinen Augen noch schlimmer, als wenn es Karten wären, die halbwegs ordentliche Treiber hätten, aber die Gesamtperformance wäre noch weiter unter dem, was man eigentlich aktuell erwarten würde.
Dabei beziehe ich mich natürlich auch auf die ziemlich schlechte Performance pro Watt bei Intel ARC.
Trotz des überlegenen Fertigungsprozesses (sie müsste also viel bessere Werte liefern!) ist die kleine ARC380 im PPW Rating (Performance per Watt) aber schon um satte 50% schlechter als die Radeon 6400 - udn das bereits bei den üblich getesteten Titeln.
Was ist dann wohl bei den Spielen, die Intel noch gar nicht angeschaut hat?
Die haben eine Top100 Liste, selbst da läuft noch alels nicht wirklich rund.
Uuuund jetzt ist noch rausgekommen, dass die Karten kein DX) mehr können, also Spiele wie CSGO und Team Fortress, die darauf basieren, und bei Steam imemr noch in den Top Charts der Spieler stehen, laufen extrem schlecht! Also ungefähr 50% langsamer.
Da hat Intel noch sehr viel Arbeit vor sich.
Die To-Do-Liste ist noch viel länger als angenommen.
So, das reicht jetzt auch als Einstieg in die Problematik, darüber kann man eine Doktorarbeit schreiben.
 
Zurück
Oben