Test Intels 200-Euro-Grafikkarte im Test: Arc A580 vs. A750, RTX 3050 & 3060 und RX 7600 & 6600

GrumpyCat schrieb:
Vergleichen wir doch mal eine A770 mit einer 4060Ti und einer 7600:
https://geizhals.de/?cmp=3035195&cmp=2951753&cmp=2955239&active=1
Ja, der Chip der A770 ist vergleichsweise groß. Aber: Von der Compute-Leistung her lässt er die 4060Ti hinter sich und liegt nur knapp hinter der 7600, wobei die Speicherbandbreite der A770 wegen des 256-Bit-Interfaces (durch das vermutlich auch ein Teil des Transistor-Counts bedingt ist) fast doppelt so hoch liegt wie bei den beiden anderen Karten, was je nach Workload entscheidend sein kann.

"Leistung" in Spielen ist halt nicht alles aus Firmensicht.

Wenn ich heutzutage eine neue Architektur designen würde und ich mich entscheiden müsste zwischen...
  • Fokus auf eine Endkundennische von relativ jungen Leuten mit relativ wenig Geld, hoher Aufwand in Sachen Software wegen ständig wechselnden Applikationen mit teilweise massiv unterschiedlichen Architekturen (also: Gamer und Spiele)
  • Fokus auf Business, das gerade bereit ist, beinahe beliebige Beträge für Compute-fähige Lösungen auszugeben
...dann wäre das eine einfache Entscheidung.

Mag sein, dass Intel mit den Arcs gerade nicht reich wird. Was auch sonst? Ersteinstieg in massiv komplexes Feld mit einer Lösung, die unglaublich viel besser ist als die langjährigen Platzhirsche? Ja klar.
Das kann man nicht miteinander Vergleichen, die RX 7600 mag zwar nur eine Bandbreite von 288.0 GB/s haben, aber sie macht einen beträchtlichen Teil mit ihren 32MB Infinity-cache (2. Gen.) wieder weg.
Das slide unterhalb basiert noch auf RDNA2 bzw. 1. Gen. Infinity cache, 2. Gen. wie es in RDNA3 vorhanden ist ist nochmals deutlich besser.
So nebenbei werden dafür auch reichlich Transistor count und die Fäche dafür benötigt.

Nach meiner Meinung, entwickelt Intel am Markt vorbei, besser hätten sie ein schmales relativ energieeffizientes und kostengünstiges Design entwickelt, dass man entsprechend in grosser Stückzahl hätte verkaufen können.
Was sie jetzt haben ist jede Menge Rohpower, bringen davon aber nur einen Bruchteil auf die Strasse und für Raytracing ist sie am Ende eh auch wieder zu schwach.

Was Business anbelangt, sind für Bürorechner die APU's von AMD eh auch wieder das non plus ultra und
bei compute fähigen Grafikkarten sieht man gegen CDNA auch wieder kein Land.

Es bleibt dabei, bei den Arc Karten handelt es sich um ein grausiges Design. Alleine der exorbitante Stromverbrauch im idle und niedrigem Workload spricht Bände. Am besten wäre wohl wenn Intel alles wieder einstampfen würde und nochmals bei 0 am Reißbrett anfangen würde, denn mit dieser altbackenen Architektur kann es nichts mehr werden. Da lieber ein ende mit schrecken als schrecken ohne ende kann man da nur sagen.
1697146780023.png
 
Zuletzt bearbeitet:
Meine 3050 ist aber auch eine echte Krücke 🤭
 
Reisbrett
Anti-Monitor schrieb:
Meine 3050 ist aber auch eine echte Krücke 🤭
Hättest mal ein RX6600 für dieses Geld kaufen sollen, die zerreißt deine 3050 in der Luft, aber gegen die Arc Karten sieht die 3050 schon fast wieder wie ein Raketenrollstuhl aus, da kannst du deine Krücken gleich wieder wegwerfen.
 
ArrakisSand schrieb:
RX 7600 mag zwar nur eine Bandbreite von 288.0 GB/s haben, aber sie mach einen beträchtlichen Teil mit ihren 32MB Infinity-cache (2. Gen.) wieder weg
Bei Spielen sicher.
ArrakisSand schrieb:
Nach meiner Meinung entwickelt Intel am Markt vorbei, besser hätten sie ein schmales relativ energieeffizientes und kostengünstiges Design entwickelt
Intel entwickelt aber schon immer "fett". Große Dies, große Caches (jedenfalls bevor X3D kam), viele Transistoren. Ist jedenfalls schon Jahrzehnte bei den CPUs so.
ArrakisSand schrieb:
Was sie jetzt haben ist jede Menge Rohpower bringen davon aber nur einen Bruchteil auf die Strasse
In Spielen.
ArrakisSand schrieb:
Was Business anbelangt sind für Bürorechner
Die interessieren hier gar nicht, für Bürorechner braucht man auch keine Arcs.
ArrakisSand schrieb:
Nur für Spiele interessant.
ArrakisSand schrieb:
bei compute fähigen Grafikkarten sieht man gegen CDNA auch wieder kein Land
Meinst Du in Sachen Benchmarks (dann würde ich die gerne sehen) oder in Sachen Software-Infrastruktur? Bei letzterem würden ja die meisten eher kichern und darauf verweisen, dass CDNA gegen CUDA kein Land sieht. (wobei ich schätzen und hoffen würde, dass sich das alles mittelfristig durch Dinge wie IREE und SYCL in Luft auflösen wird - wenigstens im Nicht-Consumer-Bereich)
 
@GrumpyCat
Man kann einen Teil aufs Speicherinterface schieben, allerdings verpufft ein Teil davon auch wieder durch den kleineren Cache.

Ist dann wieder stark Anwendungsabhängig welche Lösung zu bevorzugen ist.

Intel rennt dabei auch ins selbe Cuda Dilemma wie AMD.

Wobei Intel beim Thema fette Designs nachgelassen hat. Was ARM und vorallem Apple mittlerweile für Fette Kerne raushauen ist nochmal eine ganze Ecke oben drauf (Pipeline Zahl, Decoder Weite, oOo Fenster,...
 
Trelor schrieb:
Intel rennt dabei auch ins selbe Cuda Dilemma wie AMD.
Wieviele der Top 3-Supercomputer benutzen CUDA? Null. Aber zwei benutzen AMD-GPUs.

Wie gesagt, ich schätze, dass mittelfristig Ansätze wie IREE und SYCL das regeln werden. Es will auch niemand Software speziell für eine Hardware schreiben, speziell auch mit den ganzen alternativen Beschleuniger-Ansätzen abseits von auf GPUs basierter Hardware. Wenn ich statt einer fetten GPU einen 512-Kerner habe, warum sollte das die Software nicht nutzen können?

Im Moment ist Compute halt so weit wie 3D-Grafik zu Glide-Zeiten (oder das Web zu ActiveX-Zeiten), aber das wird sich ändern. CUDA geht vorbei.
 
Fresh-D schrieb:
Lade und update mal das aktuellste BIOS für dein Mainboard, dann sollte es dabei sein. Bei meinem MSI B550 gibt es den Punkt im aktuellsten BIOS.
(BIOS = UEFI)
Ich habe immer das aktuellste BIOS installiert, mit AGESA V2 1.2.0.B.
GIGABYTE B550 AORUS Elite V2
Wie gesagt, es funktioniert dennoch.
 
Egal wie gut die Graka auch ist, bei diesen Leerlaufverbräuchen kommt mir keine in den Rechner. Da der Rechner bzw. die Grafikkarte zu 95% im Leerlauf ist, ist der Mehrverbrauch einfach viel zu krass. Gerade in Zeiten der Preisexplosion.
 
Einerseits ist es beachtlich wie Intel mit der ersten Generation schon auf Augenhöhe ist mit der Konkurrenz. Zumindest im anvisierten Preissegment.

Allerdings ist es gerade im unteren Segment wichtig, dass die Hardware mehr oder weniger problemlos funktioniert. Die Tüftler und Bastler sind doch eher im High End Bereich unterwegs, schätze ich. Im Billigbereich wird bestimmt zum größten Teil einfach eingesetzt und losgelegt.
Da ist es schon blöd, wenn man erst mit Einstellungen im BIOS rumwerkeln muss oder so ein Mainstream Spiel wie Starfield nicht direkt vom Launch sauber läuft.

Da sollte Intel auf jeden Fall mehr Augenmerk drauf legen zur nächsten Generation.
 
Besten Dank für die Mühe und für das Herz für eher vernachlässigte Interessenten/Käufer von Einsteiger-Grafikkarten oder dGPUs der unteren Mittelklasse :) @Jan , die ja leider sonst meistens das Nachsehen haben, weil sich die meisten Testartikel meist um Mittel- bis Enthusiastenklasse-Grafikkarten drehen.

In dem Bereich tummeln sich wohl auch (zusammen mit der dGPU-Mittelklasse) die mit Abstand meisten Kunden und schön, dass Intel Arc hier in gewisser Weise (zu Recht auch, wie ich finde) im Mittelpunkt steht, da AMD/RTG und nVidia sich nicht mehr so grossaertig um diese Leistungsklassen/Käuferschichten scheren.

Das ist an den nicht in diesem Test vertretenden Karten mit Speicherausbau unter 8GB abzulesen (RX 6400, RX 6500XT und GTX 1630) sowie den kastrierten/verhunzten Speicherinterfaces (SIs) im Vergleich zu den mittlerweile als spendabel (und leider nicht mehr normal/Standard) herüberkommenden SIs bei den Intel Arc Grafikkarten.

Nicht eingebüßt hat wiederum auch die Arc A580 die Fähigkeit, Videos in Hardware beschleunigt im AV1-Codec zu encodieren. Dies beherrschen ansonsten nur Ada Lovelace (RTX 4000) und RDNA 3 (Radeon RX 7000), die es zurzeit nicht zum Preispunkt um 200 Euro herum gibt. Noch günstiger kommt man an dieses Feature allerdings mit dem Griff zur Arc A380.

Es gibt noch die Intel Arc A(lchemist)310 und diese kommt laut Spezifikationen des Herstellers/Entwicklers auch mit AV1 Codec Support, so dass es auch noch günstiger geht (wenn es einem nur um AV1 Support geht) als mit einer Intel Arc A380.

Schade, dass der Intel gesponsorte (damit mutmassliche Vorzeige-)Spieletitel Assassin's Creed Mirage hier in den Benchmarks nicht verglichen wurde, aber auch ohne diesen macht Intel Arc für einen möglichen Gaming-Einsteiger- oder Zweitrechner durchaus schon eine gute Figur und Sinn als kostengünstigere Alternative, insbesondere, wenn der Preis noch unter 200 Euro für die A580 Karten fallen sollte und damit für viele endlich wieder in einer erschwinglichen Grafikkarten-Preisregion angesiedelt ist.

Ja gut, RT-RT ist in der Leistungsklasse wohl nicht mehr so relevant, auch wenn nVidia das mit der RTX 3050 suggeriert hat, die aber auch ironischer Weise am schlechtesten insgesamt abschneidet.

Ich bin gespannt, ob Intel in dem Preis-/Klassensegment seinen ersten, mittlerweile doch relativ starken Aufritt (für deren erste Gaming-Grafikkarten-Generation) mit den Arc Battlemage Karten behaupten/verfestigen kann, denn mehr braucht es für den Einstieg in den Gamingbereich mit Apex Legends, CS2, DOTA 2, LoL, Fortnite, PUBG, Minecraft, Overwatch 2, WoW, etc. (in Full-HD) eigentlich auch nicht und Konkurrenzdruck (auf nVidia und AMD/RTG) tut dem Markt bzw. der Kundschaft gut (je mehr Leute Intel Arc Grafikkarten kaufen)
 
Zuletzt bearbeitet:
IsaacClarke schrieb:
Damit kann man den verbrauch auf einen einstelligen Wert drosseln, im Leerlauf bleiben die Lüfter dann auch aus, ohne nennenswerten Leistungsverlust:
Da dies abhängig von Auflösung und Hz ist, wie sieht es mit WQHD 144hz aus? Es steht ja bis 4k60hz bei 1 Display. Sicher sind solche Karten eher für FHD gedacht, wo ich schätze mal das auch mit 144hz geht. Aber WQHD wird oder ist teilweise ja der neue Standard.
 
Verak Drezzt schrieb:
Ich weis nicht was ihr euch scheckisch macht ? was dachtet ihr bitte, dass Intel direkt mit der ersten Gen. eine 4090 mit 200W bringt ? genau so kommen einige Kommentare hier rüber, vielleicht etwas überspitzt aber die Erwartungen einiger hier sind einfach nur unterirdisch.

DKK007 schrieb:
Dafür das Intel doch die Ingenieure von AMD abgeworben hatte, wundert es schon, dass Arc so viel schlechter mit den Transistoren skaliert als RDNA.
Ich finde die Diskussion schon interessant, was man hätte von Intel erwarten können. Klar ist es "wieder einmal" die erste Generation einer GPU bei Intel. Aber so ganz gar keine Erfahrung haben Sie ja auch nicht und haben sich doch auch nicht. Und Intel ist nicht irgendwer. Das muss man sich auch immer mal wieder vor Augen halten.
 
  • Gefällt mir
Reaktionen: Chismon
Northstar2710 schrieb:
liegt A580 auch unterhalb rx6600
Danke für den Hinweis, das finde ich erstaunlich und zumindest kann man Intel da keine manipulative Spielentwicklungspolitik für deren dGPUs per Sponsoring (bisher) vorwerfen, aber gut, AC Mirage ist ja m.W. auch der erste größere Spieletitel, der von Intel gesponsort wurde.
 
Für mich wäre von den Karten die 3060 am attraktivsten, jedoch nicht für die aktuellen Preise :D .

Chismon schrieb:
Es gibt noch die Intel Arc A(lchemist)310 und diese kommt laut Spezifikationen des Herstellers/Entwicklers auch mit AV1 Codec Support, so dass es auch noch günstiger geht (wenn es einem nur um AV1 Support geht) als mit einer Intel Arc A380.
Wäre dann nicht sowiso eine aktuelle igpu ausreichend heutzutage.
Die werden zwar nicht merklich schneller, haben aber bei Intel, oder jetzt auch bei AMD, immer support der aktuellsten codecs.
ShiftC schrieb:
Ist das wirklich dein ernst oder Satire?
Daddeln am PC oder an der Konsole hat nichts mit Erwachsensein zu tun. Ich bspw. bin 36 und zocke mehrmals in der Woche mit Freunden, die teils älter als ich sind (haben sogar Rentner in der Truppe). Und nein, wir weisen dabei weder online noch in echt das Aussehen oder Verhalten eines 16-jährigen auf.
Spielen ist genau so eine Freizeitaktivität wie Angeln, Fußball, Filme schauen & Co. Sogar meine verstorbene Mutter hatte Spaß bei Moorhuhn.
In WOW hatten wir alles von meist doch als minimum 18 Jahren (bei uns 22) bis open END , auch Beruflich alles dabei, vom "hackler" über doktor, Rechtsanwalt und co. alles vertreten. Auch Familien mit Kindern, also nicht nur singles.
Wobei das natürlich auch auf die Auslegung des Clans ankommt und wie aktiv man Progress spielt.
 
Zuletzt bearbeitet:
Tja, Du stehst auf Seiten der Mehrheit - obwohl die 3060 in den Benchmarks so eher durchschnittlich performt, wollen die meisten diese erwählen ^^

Die 7600 scheint das beste Gesamtpaket zu liefern.
 
DKK007 schrieb:
Heißt das das man die GPU mit älteren CPUs, wo die preislich dazu passen würde als Upgrade nicht verwenden kann?

Ja die Grafikkarte von Intel ist nichts für ältere Hardware oder alternative Betriebssysteme.
Ein reines W11 neue Hardware Grafikkarte. (w10 ist schon tot)

--

Ich kann überhaupt nicht meine Grafik vom Ryzen 7600X einschätzen.
Gewisste Titel sind unspielbar - egal wie viel RAM ich der Grafik gebe.
 
Wenn man nicht Marktstartpreis mit aktuellen Straßenpreisen vergleicht, sondern UVP zu UVP, dann ist die A570 eigentlich ein nobrainer und uneingeschränkt kaufbar.

Aber auch so ist die neue Karte keineswegs schlecht.

die RTX 3060 hat hier eigentlich nichts zu suchen, weil andere Preisklasse.
 
andi_sco schrieb:
Weißt du, wie hoch der Aufwand ist?

CB sollte mal die Zeitdauer für jeden Wert in solchen Tabellen mit aufnehmen, und dann eine Tabelle zur Verfügung stellen, wo das Testresultat nach dem Klicken darauf erst angezeigt wird, nachdem die reelle aufgenommene Zeitdauer abgelaufen ist... so mit Timer der abläuft :-D
 
Zurück
Oben