Test CPU-Overhead: Arc B580 vs. RTX 4060 & RX 7600 auf CPUs mit 4 bis 24 Kernen

incurable schrieb:
Was sollen sie auch tun?
Das Produkt einfach so designen, dass es so funtioniert, wie es die Produkte der Mitbewerber auch tun. Wenigstens das sollte der ehemalige Marktführer doch hinbekommen. Aber wer in der Tech-Branche tatsächlich die KI-Revolution verschläft, dem ist wohl alles (nicht) zuzutrauen. Immerhin soll die KI unter Lip-Bu Tan nun zur Chefsache werden. Hoffen wir mal für Intel, dass es noch nicht zu spät ist, und dass Nvidia seinen Einstieg in den CPU-Markt noch etwas hinauszögert. Intel hält ja kaum dem Qualcomm-Druck stand, und die haben gerade erst angefangen, in den Desktop-Markt einzusteigen.
 
Top, eine GPU die vmtl. meist für schwächere Systeme verwendet wird, hat Probleme bei schwächeren Systemen...
Gut dass es Leute gibt, die da genauer nachbohren und sowas aufwendig herausfinden können.
 
  • Gefällt mir
Reaktionen: Kalsarikännit, DerRico, Convert und 2 andere
blauescabrio schrieb:
Das Produkt einfach so designen, dass es so funtioniert, wie es die Produkte der Mitbewerber auch tun.
Daran ist nichts "einfach."

Begrenzte Ressourcen ausgerechnet in Treiber für alte Schnittstellen auf schon bei der Vorstellung vor bald 7 Jahren langsamen Plattformen, wie Steven sie getestet hat, zu stecken ist nicht sinnvoll.
 
Zuletzt bearbeitet:
Frettchen! schrieb:
Top, eine GPU die vmtl. meist für schwächere Systeme verwendet wird, hat Probleme bei schwächeren Systemen...
Genau das ist es: Es kauft sich doch niemand eine CPU aus dem oberen Preisregal, um sie dann mit der RTX3060 zu koppeln. Und genau in dem Leistungsbereich dümpelt die ARC B580 nun mal rum. Mit dem Unterschied, dass man die RTX3060 sehr wohl als Aufrüstkarte für ältere Systeme verwenden kann. Eigentlich hat die B580 überhaupt keine Daseinsberechtigung. Außer "Ich will mal was Neues ausprobieren" ist da nichts, wenn man mal ehrlich ist. Dass Intel die größeren Battlemages B750 und B770 bereits abgesagt hat, ist ein weiteres schlechtes Zeichen.
 
  • Gefällt mir
Reaktionen: Turbolord und DerRico

Anhänge

  • 7600XT 289 €.jpg
    7600XT 289 €.jpg
    266,7 KB · Aufrufe: 95
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Convert und Jan
Und wer sich eine 6750XT für 319 oder sogar 309 € gezogen hat, machte ein noch besseres Schnäppchen. 20 % Mehrleistung für 20 € Aufpreis.
Screenshot 2025-04-19 142114.png
 
  • Gefällt mir
Reaktionen: Deinorius und SweetOhm
blauescabrio schrieb:
Und wer sich eine 6750XT für 319 oder sogar 309 € gezogen hat, machte ein noch besseres Schnäppchen. 20 % Mehrleistung für 20 € Aufpreis.
Yup, die 6750XT ist ja auch der wahre PL Sieger. Gab es auch schon für 289 € und ist gleich auf mit einer 4060Ti (RR).
 

Anhänge

  • 6750XT 289 €.jpg
    6750XT 289 €.jpg
    213,3 KB · Aufrufe: 79
  • 6750XT.jpg
    6750XT.jpg
    239,8 KB · Aufrufe: 83
  • Gefällt mir
Reaktionen: blauescabrio
Dass der im Vergleich zur Konkurrenz von AMD und Nvidia hohe CPU-Overhead, verursacht durch den Treiber, dazu führt, dass Intel Arc auf kleineren CPUs zurückfällt, war Intel demnach nicht im Vorfeld bewusst. Konkrete Abhilfe wird aber auch jetzt nicht in Aussicht gestellt.

Das ist ja mal wieder glatt gelogen.
Hat da jemand bei Intel 20 Jahre Amnesie?
Die Treiber sind immer grundlegend so gewesen, dass die CPU der Mini-GPU aushelfen soll.
Bei Intel ARC als große dedizierte EInheit funktioniert das System aber überhaupt nicht mehr.
Der extrem große CPU-Overhead ist dort nämlich kontraproduktiv, denn dort fallen viel größere Datenmengen an, diese Rechenzeit hat eine normale CPU aber nicht mehr brachliegen, wenn sie bereits vom Spiel gefordert wird.
Also die GPU schickt mehr Daten, aber auch das SPiel wirll ja gleichzeit mehr Bilder als üblich durchgerechnet bekommen.
Das kann so nicht funktionieren, und das wusste Intel immer schon!
Man hat sogar bei der A Serie mindestens 3 Jahre lang vergeblich versucht dieses Problem anzugehen, aber man hat dort sogar aufgegeben und einen Workaround eingebaut, der quasi wie DXVK unter Linux funktioniert.
Nur mit dem großen Unterschied, dass Intel im Treiber über eine Whiteliste diese beschleunigten Spiele freischalten muss.
Dazu gibt es diverse Meldungen und Tests im Netz.
Igor ist eine gute Anlauftselle, wo er die schlechte Intel Treiberpolitik zerfleischt und im Test den Overhead publik macht.
Also selbst, wenn Intel sich dumm stellt, so hätten die zumindest durch die Medien etwas sehen und hören müssen.
Ich bin echt fasslungslos. was bei der Firma abgeht.
Kein Wunder, dass die von der ehemaligen Marktdominanz nun eher kurz davor sind völlig Konkurs anzumelden und zur eigenen Rettung diverse Marktbereiche verkaufen müssen.
 
  • Gefällt mir
Reaktionen: blauescabrio
Schlimme Geschichte das Ganze. Erst Paperlaunch, dann die Treiberprobleme, nun der Overhead... Wir als Gamer wollen eine dritten Player, aber Intel möchte einfach nicht mitspielen.
 
  • Gefällt mir
Reaktionen: blauescabrio
Auch wenn ältere CPU's schlechter als neue abschneiden, reicht die Leistung offensichtlich noch zum zocken.
Also für mich kein Grund zum upgraden. Erst wenn es unspielbar wird, mache ich mir Gedanken. Keep cool!
 
Warum man einen 14900K nimmt, also das absolute Dickschiff von Intel aber dann wiederrum keinen x950X3D versteht auch keiner. Klar ein x800X3D ist zum spielen optimal, aber wenn man schon die dickschiffe von einem Hersteller nimmt dann bitte auch von dem anderen Hersteller. Und ja man kann mit einem 7950X3D wie auch einem 9950X3D wunderbar spielen. Leider ist das auch nicht das erste mal wo mir das aufgefallen ist, das bei AMD nur die "mittelklasse" CPU dabei ist aber von Intel dann wieder gefühlt alles.
Ich will die tests keineswegs schlechtreden. Aber so hinken die vergleiche für mich immer wieder ein bisschen.
Man vergleicht ja auch nicht dem 9950X3D mit einem 245k um es mal übertrieben darzustellen.

Aber wie dem auch sei, intel muss auf jeden fall nochmal ran, es ist leider wie auch schon mit AMD gpus, die Hardware ist super, aber die Treiber/Software ist stark ausbaufähig, bzw wird einiges an potenzial nicht auf die Strasse gebracht. Auch wenn ich mir persönlich wohl niemals ne intel GPU holen würde, wäre es schade wenn die wieder verschwinden, der markt BRAUCHT INTEL.
Einzig bei Nvidia läuft es meist so wie es soll, abgesehen von Blackwell, da haben die irgendwie alles verlernt, zumindest was man so hört
 
Hatsune_Miku schrieb:
die Hardware ist super, aber die Treiber/Software ist stark ausbaufähig, bzw wird einiges an potenzial nicht auf die Strasse gebracht.
Dem kann ich nur widersprechen.

Intel verbaut 272mm² in TSMC 5nm mit 192 bit Speicheranbindung auf einer 249-US-Dollar-Grafikkarte.

Nvidia verbaut 181mm² in TSMC 5nm mit 128 bit Speicheranbindung auf einer 429-US-Dollar-Grafikkarte, die +/- 33% schneller ist.
Nvidia verbaut 263mm² in TSMC 5nm mit 192 bit Speicheranbindung auf einer 549-US-Dollar-Grafikkarte, die +/- 75% schneller ist.

Intels Grafikarchitektur ist unglaublich ineffizient und im Anbetracht der erzielbaren Preise ein wirtschaftliches Eigentor.
 
  • Gefällt mir
Reaktionen: blauescabrio
SweetOhm schrieb:
Yup, die 6750XT ist ja auch der wahre PL Sieger. Gab es auch schon für 289 € und ist gleich auf mit einer 4060Ti (RR).
Wenn man es also ganz genau bzw. streng nimmt, war die ARC B580 niemals ihren Marktpreis wert. Könnte man das so brutal formulieren? Ich gestehe ganz ehrlich, dass ich mich durch die ersten euphorischen "Tests" auf Youtube habe blenden lassen. Oder ich wollte es einfach glauben. Noch dazu sah die ASRock Steel Legend in einem White Build einfach fantastisch aus.
 
  • Gefällt mir
Reaktionen: SweetOhm
officeee schrieb:
Guter Test, wirklich relevant gewesen wäre aber imho das Einbeziehen ... CPUs die gerade P/L-Seitig an der Spitze liegen...

Richtig. Weder 5700x noch 5700x3d dabei. Beides sehr gute CPUs wo auch immer wieder gezeigt wurde das sie abseits von High-FPS ESPORT Szenarios noch oft schnell genug für Games waren. Sehen manche bei CB anders.

Auch wäre interessant gewesen wei B580 auf älteren AM4 Boards performt. Als 8x PCIE3.0 bzw 4x PCIE4.0. Gerade in Zusammenhang mit der CPU Bottleneck.

Aber ich habe mir leider auch sagen lassen, das sei nicht die Zielgruppe der Redaktion, was ich persönlich Schade finde. Aber das halt eine interne Entscheidung die man halt respektieren muss. Mitlerweile ist das Inet aber auch voll von Overhead Tests.
 
lynx007 schrieb:
Richtig. Weder 5700x noch 5700x3d dabei.

Auch wäre interessant gewesen wei B580 auf älteren AM4 Boards performt.
Ich hatte sie auf einem B550/5700X3D. Bei Spielen, die XeSS unterstützten (z. B. Fortnite und Forza Horizon 5) war sie auf QHD richtig schnell. Da fehlten teilweise nur 20 bis 25 Prozent zur 6800XT. Bei anderen Spielen hingegen kackte sie gnadenlos ab und lag eher auf dem Niveau einer RTX3060.
 
  • Gefällt mir
Reaktionen: incurable
@blauescabrio
danke für die Info.
Habe ja selber echt gehoft und war auch kurz davor mir die b580 zu holen.... aber habe mich jetzt doch für die kommende 9060 16gb entschieden, nachdem das mit dem overhead rauskam. War mir auch mit dem Treibern bisl zu Riski. Auch wen die AMD vermutlich viel teurer sein wird.
 
Die B580 ist wirklich ganz komisch. Wenn man nur ausgesuchte Spiele spielt, die der Karte gerade entgegenkommen, kann man vielleicht damit glücklich werden.
 
blauescabrio schrieb:
Wenn man nur ausgesuchte Spiele spielt, die der Karte gerade entgegenkommen, kann man vielleicht damit glücklich werden.
Problematisch finde ich, dass der Trend bei Intel gerade nach unten zeigt. Bei Arc war das Problem die Kompatibilität mit alten Titeln. Das wurde langsam aufgeholt und man konnte so nach und nach das Meiste damit ordentlich spielen. War dann okay, weil Legacy, in der Regel ohnehin ordentliche FPS und irgendwann egal.

Aktuell ist es aber so, dass in anteilig sehr vielen neuen Titeln die Intel GPUs komplett versagen. Es wird subjektiv bei den Tests neuer Spiele hier und auf PCGH immer schlechter: Unterirdische Leistung, Fehler in der Bildausgabe... Es fühlt sich so an, als wäre die Intel Treibertruppe, die zwischenzeitlich mal einen guten Job gemacht hatte, längerfristig im Urlaub sein.
 
  • Gefällt mir
Reaktionen: blauescabrio
DerRico schrieb:
Es wird subjektiv bei den Tests neuer Spiele hier und auf PCGH immer schlechter: Unterirdische Leistung, Fehler in der Bildausgabe...
Wie gesagt: Ich bin heilfroh, die Karte mit nur 40 € Lehrgeld wieder verkauft zu haben. Eigentlich muss man potenzielle Kunden, die einfach nur daddeln wollen, dringend vor dieser Karte warnen.

Edit sagt: "Darüber hinaus ist erwähnenswert, dass diese Leistungsprobleme nichts mit Resizable BAR ("rBAR") zu tun haben." https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Intel-Arc-CPU-Overhead-1470896/
Das ist interessant, hieß es doch bislang immer: "Du bist ja selber schuld, wenn du dir die Karte in ein System einsetzt, das kein rBAr unterstützt".
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DerRico
Ich würde mich nicht gerade als Intel Liebhaber bezeichnen, aber wäre trotzdem geil falls Arc etwas aufmischt. Zumindest low bis midrange, aber diese News sind halt vernichtend.
 
Zurück
Oben