Intel Arc B580 und nur 30 fps

@wiwam Definitiv, die 75Frames sind sicher der Sync und den 75Hz des Monitor geschuldet, also käme da u.U. sogar noch mehr.
Faktisch ist die Karte ein echtes Goldstück, zusammen mit der iGPU rangiert sie definitiv irgendwo um eine 4070 herum, und ich bin immer wieder überrascht, weswegen in vielen Tests und Benchmarks viel niedrigere Werte angezeigt werden, was die FPS betrifft, mit DeepLink ist das die Grafikkarte mit der mit Abstand besten Preisleistung
Screenshot 2026-02-02 133400.png


In meinem Fall liegt sie definitiv mindestens zwischen 3060ti und 4070Super, dank DeepLink, für eine vergleichbare Karte mit der Menge an RAM und der Leistung muss man normalerweise deutlich mehr hinlegen. deutlich zwischen 400 und 500€ in der Regel, aber wer eine Intel iGPU ab 11.Gen hat, kann auch zum Gamen sehr gut zu einer B580 greifen, für den Preis unschlagbar
 
@Panagiotis Häh?
Hättest mal die Beschreibung gelesen, wüsstest Du, das DP gar nicht vorhanden ist am Monitor sondern nur HDMI 1.4 und die Sync bei einem 60Hz Monitor ausmachen kann man, muss man aber nicht, ändert nichts am Problem
Pauschaltipp? Unterhose bitte richtig rum anziehen, damit der Eingriff vorne ist!?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Ja_Ge
@Custom-Config Die Nachricht mit dem genauen Monitor Modell habe ich übersehen. Hättest mich auch einfach normal auf meinen Fehler hinweisen können, anstatt dich hier aufzuführen wie ein schlechter Comedien.
 
An eine Rx 7800 xt kommt die arc nicht dran.
Wenn die intel Treiber noch zulegen und z.B das aufwachen aus dem Energiesparmodus gefixt wird wär das wirklich gut.
mfg
 
@wal23 Natürlich nicht, selbst mit DeepLink hat die 7800XT immer noch in vielen Punkten mehr Leistung, auch wenn sie sich mit DeepLink zumindest in den FPS in die Reichweite der 7800 tasten kann.
Standalone reine DezGraka ist die 7800XT auch gute 60-70% stärker als die B580, mit Deeplink und einer guten iGPU dazu, schmilzt der Unterschied auf knappe 20-30%, aber die 7800XT kostet ja auch locker das doppelte bis dreifache, hat mehr Speicher, Hat fast 50% mehr Shader als die B580, ebenso TMUs fast doppelt so viele, die GPU rechenleistung ist fast 3x so hoch wie bei der B580.
Und gute 80Watt mehr schluckt sie auch.
Wäre also ein Wunder wenn die gleich stark wären.
Aber gerade aufgrund der deutlich niedrigeren Hardwareleistung ist es erstaunlich wie gut sich die B580 zusammen mit DeepLink hier schlägt
 
Wenn man Raytracing anmacht, sollte die B580 auch an einer 6700 xt vorbeiziehen können. Und im einen oder anderen Spiel kann sie auch jetzt schon im Rasterizing vor einer 6700 xt liegen. Von der Rechenleistung und dem VRAM her sind die Karten ansonsten quasi gleich.

Durch die Treibersituation gibt es aber solche Totalausfälle und Minderleistung je nach Spiel, was den Schnitt dann deutlich herunterzieht, wodurch die B580 klar unter einer 6700 xt landet anstatt auf gleicher Höhe.

Eine B580 mit einer 4070 Super zu vergleichen, ist komplett absurd. Der Chip der 4070 Super hat mehr als doppelt so viel Rechenleistung. Selbst mit optimalsten Treibern wäre Intel meilenweit davon entfernt.
Eine Vergleich mit einer 7800 xt ist dementsprechend ebenso komplett absurd, aus den gleichen Gründen.

Das Balkendiagramm, was oben gepostet wurde, stimmt schon so.

Custom-Config schrieb:
selbst mit DeepLink hat die 7800XT immer noch in vielen Punkten mehr Leistung, auch wenn sie sich mit DeepLink zumindest in den FPS in die Reichweite der 7800 tasten kann.
DeepLink ist eine Technik, die für Computing-Anwendungen (Video-Encoding usw.) den IGP und die dedizierte Grafikkarte gemeinsam benutzt. In Spielen wird sie nicht angewendet und bringt somit genau 0 FPS Mehrleistung.
Update: DeepLink wurde von Intel zudem letztes Jahr eingestellt.
 
Zuletzt bearbeitet:
rollmoped schrieb:
DeepLink ist eine Technik, die für Computing-Anwendungen (Video-Encoding usw.) den IGP und die dedizierte Grafikkarte benutzt. In Spielen wird sie nicht angewendet und bringt somit genau 0 FPS Mehrleistung.
Stimmt so absolut nicht, ich habe ja nun den direkten Vergleich auch in Benchmarks und Spielen wie RDR2, Anno etc.
deaktiviere ich die iGPU und somit DeepLink sinken FPS und Leistung in Games massiv.
Und den direkten Vergleich zur 4070Super habe ich ebenfalls, denn im zweiten Rechner mit der 4070S und der 5800X erreiche ich je nach Game nahezu identische FPS, minimal geringere FPS, bei gleichen Settings.
Anhand der Benchmark sehr schön zu sehen.
Eine B580 alleine erreicht auf Ultra/High Settings in RDR2 1080p DX12 maximal 50-60FPS, Vulcan 70-80FPS und das stimmt auch bei mir, wenn die iGPU deaktiviert ist und und DeepLink entsprechend nicht verfügbar.
mit aktivierter iGPU kommt das dabei raus

Screenshot 2026-01-30 125544.png



Und ein Durchschnitt von 113FPS in 1080p High/Ultra erreicht die B580 ohne Deeplink nicht im Ansatz, also das DeepLink in Games nichts bringt ist völliger Mumpitz, der heilige Geist wird die mehr FPS wohl kaum bringen

Und natürlich ist die Shader, Belauchtungs- und sonstige Qualität nicht direkt vergleichbar, da ist die B580 deutlich schlechter, aber die FPS bringt sie, zumindest im Zusammenspiel mit DeepLink.
Und warum DeepLink in Spielen nicht funktionieren sollte ist auch die Frage!? Wenn DeepLink aktiv ist, nutzt die DGPU permanent die IGPU mit, sie erweitert sich quasi selbst um die verfügbare iGPU, teilweise läuft die B580 z.B. bei geringer Last auf 0% Last und die iGPU regelt Internet Explorer etc alleine.
Das hat mit Spielen oder bestimmter Anwendersoftware oder Unterstützung nichts zu tun, DeepLink ist rein Hardware und Systembasiert
 

Anhänge

  • Screenshot 2026-02-05 111515.png
    Screenshot 2026-02-05 111515.png
    10,4 KB · Aufrufe: 8
Zuletzt bearbeitet:
Custom-Config schrieb:
Stimmt so absolut nicht, ich habe ja nun den direkten Vergleich auch in Benchmarks und Spielen wie RDR2, Anno etc.
deaktiviere ich die iGPU und somit DeepLink sinken FPS und Leistung in Games massiv.
Das finde ich sehr seltsam, denn eigentlich sollte die B580 (Battlemage) DeepLink gar nicht unterstützen:
Das Feature kann auf kompatibler Hardware zwar weiterhin verwendet werden, es sind aber keine weiteren Updates mehr geplant, Arc Battlemage wird Deep Link nicht unterstützen.
https://www.notebookcheck.com/Fusio...wer-Intel-stellt-Deep-Link-ein.1014154.0.html
 
Quatsch, DeepLink funktioniert in der Kombination 11.Gen CPU mit iGPU also Xe Grafikkerne und jeder Dezidierten ARC GPU.

Und die Info ist halt komplett falsch, DeepLink besteht weiter, wird nur nicht mehr aktualisiert, denn eins ist klar, es funktioniert bei mir zu 100% anders ist der leistungs und FPS Unterschied mit oder ohne iGPU gar nicht erklärbar.
Außerdem währen auch 0% Last auf der B580 aber 12%Last auf der UHD 770 z.B. beim Surfen gar nicht erklärbar, denn der Monitor hängt via DP an der B580, wenn DeepLink also nicht funktionieren würde, wie greift dann die dGPU auf die iGPU zu!??

Ehrlich gesagt ist es mir auch wurscht, ich sehe ja anhand der Werte und benchmarks, dass das unmöglich von der B580 alleine kommen kann und auch die FPS Veränderungen mit und ohne aktive iGPU, warum es funktioniert ist mir wurscht, ich finde es gut das es funktioniert

Und die DeepLink Update Entscheidung wurde nach der Nvidia Fusion entschieden, das hat sicher eher Firmenpolitische Hintergründe als tatsächlich funktionale.
Was der Presse erzählt wird, muss nicht unbedingt das sein, was tatsächlich dahinter steckt.
Und wenn man den Kunden sagt, wir stellen das ein, weil es hat ja nie richtig funktioniert, wird sich keiner beschweren.
Sagt man aber, wir entwickeln das nicht mehr weiter, auch wenns gut war, aber das sind Firmen- und Finazpolitische Entscheidungen, dann sind die User u.U. sauer.
 
Zuletzt bearbeitet:
Custom-Config schrieb:
Außerdem währen auch 0% Last auf der B580 aber 12%Last auf der UHD 770 z.B. beim Surfen gar nicht erklärbar, denn der Monitor hängt via DP an der B580, wenn DeepLink also nicht funktionieren würde, wie greift dann die dGPU auf die iGPU zu!??
Die dGPU greift nicht auf den IGP zu, sondern das Betriebssystem verteilt die schwache Renderlast zum IGP und hohe Renderlasten auf die dGPU (Microsoft Hybrid Graphics):
https://edc.intel.com/content/www/u...-datasheet-volume-1-of-2/009/hybrid-graphics/

Zur reinen Bildausgabe wird die GPU benutzt, an die das Kabel angeschlossen ist. Auf Linux heißt das einfach GPU Offloading und wird von Wayland gemanaged.
 
Gut dann halt so, fakt ist jedoch, die Werte zeigen klar, es funktioniert, anders sind die Leistungen und FPS schlicht nicht erklärbar, es sei denn die hätten in meiner B580 heimlich doppelte Leistung eingebaut.
Und die Differenzen inGame der FPS mit und ohne aktive iGPU sind mehr als deutlich, schon fast eklatant
Hier mal ein Beipiel einer B580 ohne verfügbare iGPU ind RDR2 1080p VULKAN Ultra mximal 92FPS raus, bei mir ist es die Mischung aus Ultra und z.B. weit entfernte Schatten oder Grasschatten nur auf HIGH statt Ultra, aber auch mit Vulkan und es kommen über 170FPS Max und ein Schnitt von 113 raus


Ohne DeepLink unmöglich erklärbar
 
Für Hybrid Graphics müssten die Monitore ans Mainboard. Das klappt bei mir auch. Die Arc hat dann das Spiel gerendert und war im Desktop runtergefahren. Muss ich nochmal ausprobieren.
Mfg
 
Ich kanns halt nicht anders erklären, der Monitor hängt bei mir an der B580, mache ich die iGPU im BIOS aus, brechen meine FPS in den Games deutlich ein, aktiviere ich sie wieder, kommt das dabei raus, und die Werte sind locker 60-70% besser als mit der reinen B580.
Einzig logische Erklärung, DeepLink ( nicht Hybrid ) funktioniert und die dGPU nutzt den Link zur iGPU aus und lagert Aufgaben aus.
Das bestätigen auch die Lastwerte der beiden GPUs z.B. während des Gamens oder bei geringer Nutzung.

Am Mini ITX Board kanns wohl kaum liegen, weil "die Wege" kürzer sind :rolleyes:
 
wal23 schrieb:
Für Hybrid Graphics müssten die Monitore ans Mainboard.
Bei Linux kann ich einfach auswählen, welche GPU was rendern soll, wenn es sein muss auch gleichzeitig (zumindest wenn der GPU-Hersteller nicht der gleiche ist):
beide_GPUs_gleichzeitig.png


Das Monitorkabel ist an der A380 angeschlossen. (Warum Mangohud links bei der GPU0(dGPU) 0% anzeigt, weiß ich nicht, das ist ein Bug. Rechts stimmt es aber.)

Natürlich kann ich auch den IGP im Fullscreen benutzen, die Bildausgabe macht trotzdem meine A380.
igp_rendert_dGPU_gibt_aus.png


Bei Windows kann ich es nicht testen, weil ich kein Windows habe.
Aber ich sehe prinzipiell keinen technischen Grund dafür, dass es nur gehen soll, wenn der Monitor am IGP hängt. Das wäre dann eine seltsame Eigenheit von Windows.

Update: Mit Vulkan geht so etwas wie DeepLink von Grund auf gar nicht. Denn laut Vulkan Spec muss der ICD(Installable Client Driver) der Anwendung(=Spiel) beim Initialisieren eine Liste von GPUs geben, für die er zuständig ist, und das Spiel wählt dann die GPUs aus, die es benutzen möchte und sendet Instruktionen an sie.
Wenn der Treiber einfach eigenmächtig eine GPU dazuschalten würde und Berechnungen auslagern würde, würde er gegen die Vulkan Spec verstoßen.
Es wäre auch gar nicht vom ICD verwaltbar, weil die Anwendung per Vulkan verschiedene Daten in den GPU-Speicher von GPU0 übertragen würde, die dann nicht im Speicher von GPU1 sind.
https://registry.khronos.org/vulkan/specs/latest/html/vkspec.html

Deshalb habe ich auch geschrieben, dass ich die GPU wählen kann, wenn der Hersteller unterschiedlich ist - dadurch sind zwei verschiedene ICDs zuständig, einer für jede GPU, und wenn ich den ICD umlenke, dann wird entweder die eine, oder die andere GPU angesteuert.

Update2: Was aber natürlich möglich ist bei Vulkan: Die Anwendung darf beide GPUs nutzen und selbstständig Berechnungen auf die andere GPU auslagern. Rein theoretisch kann damit eine erhöhte Leistung erklärbar sein. Das muss die entsprechende Anwendung aber selbst implementieren.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: wal23
Deshalb sage ich ja, das DeepLink hardwarebasiert über die CPU laufen muss, Nutzung der PCIe Lanes, deswegen auch der Name DeepLink und nicht Hybrid, was Software basiert ist.
Lustigerweise wird mir nie die Kombi aus mehreren GPUs oder gar die Auswahl iGPU oder dGPU in den Games angezeigt, immer nur die B580, aber sobald die loslegt kann ich mit den Ausleseprogrammen sowohl die last auf dGPU als auch auf iGPU festellen, bei Games wie RDR2 und Anno werden beide GPUs stark ausgelastet.
Ebenfaslls steigt die dynamische Zuteilung des Arbeitsspeichers für die iGPU auf bis zu 16GB an, je nachdem was das System übrig lässt, 32GB sind vorhanden.
Intel hat sich ja nie näher zu technischen details geäußert, zudem gibt es keine Softwareparameter die irgendwo im Windows angezeigt oder auslesbar wären, wie es bei Hybrid der Fall ist.
Es muss sich also um eine Hardwareverlinkung handeln, denn der Effekt ist da, ohne wenn und aber, aber es ist nichts nachvollziehbar in der Softwarebasis


Schalte ich die iGPU im BIOS inaktiv wars das mit dreistellig in 1080p, dann brechen die FPS um locker 30-40% ein

Letztlich ist es mir auch egal WIE es funktioniert, ich habe den 12600K+B580 eigentlich als Workstation angedacht, sollte nur zum Arbeiten sein, bis mir die guten FPS aufgefallen sind, weil ich nur mal checken wollte, ob die Kiste im Büro auch ne Runde Anno 1800 mitmacht oder packt, Benchmark von Anno durchgejagt und festgestellt, bessere Werte als bei der 4060ti die im Office Vorgänger drinne war.
Also das ganze auch mit RDR2 probiert, das Gleiche und alle FPS immer deutlich höher als in jeder benchmark der B580 irgendwo im Web oder Youtube etc.
Erst da habe ich nach recherche von DeepLink erfahren, wusste das vorher gar nicht
 
Zuletzt bearbeitet:
Custom-Config schrieb:
Deshalb sage ich ja, das DeepLink hardwarebasiert über die CPU laufen muss, Nutzung der PCIe Lanes, deswegen auch der Name DeepLink und nicht Hybrid, was Software basiert ist.
DeepLink ist eine Softwaretechnologie.
Der DeepLink Treiber:
  1. kann Video-Encoding auf beide GPUs aufsplitten, wenn die Anwendung explizit DeepLink-Support integriert hat (Hyper Encode)
  2. kann das Power-Budget von GPU und CPU je nach Last auf die beiden Komponenten verteilen, z.B. in Notebooks (Dynamic Power Share)
  3. kann Streaming-Aufgaben von der dGPU auf den IGP übertragen, damit nicht Spiel und Encoder auf der dGPU laufen (Stream Assist)
  4. stellt OpenVINO bereit, über das KI-Anwendungen CPU und GPUs ansteuern können - dazu müssen sie es auch erst selbst integrieren (Hyper Compute)
In Spielen, die automatisch im Hintergrund Videos von Highlights erstellen, also z.B. Fortnite, kann DeepLink natürlich mehr FPS bringen, weil das Encoding dann auf den IGP geschoben wird. Aber RDR2 und Anno 1800 haben das nicht integriert.

DeepLink kann definitiv keine Renderlasten verteilen. Und RDR2 und Anno 1800 haben auch keinen Multi-GPU-Support über Vulkan. Wo die bessere Leistung herkommt, die du mit aktiviertem IGP hast, ist unklar - auf jeden Fall hat es nichts mit DeepLink zu tun.
 
Also auf gut Deutsch, habe ich die iGPU aus, ändert das nix an der Grafikleistung der B580, habe ich sie aus auch nicht.
Nur ist in der Realität das Gegenteil der Fall, wie kommen 176FPS max und 113FPS im Schnitt 1080p Ultra / High zustande, wenn die iGPU an ist, wo jede B580 bei gleichen Einstellungen gerade mal 70-80 max schafft!?
Schalte ich die iGPU ab, habe ich genau diese Werte.
Das kann technisch nur bedeuten, was eben auch die Lasten auf beiden GPUs belegen, das die beiden GPUs zusammenarbeiten, eben DeepLink.
In der Hardware gibt es weder Wunder noch deratige Abweichungen durch z.B. optimale Hardwareeinstellungen.
Und es ist ja eben nicht nur ein Game, es sind diverse wo überall der gleiche Effekt auftritt, RDR2, Anno 1800, F1 24, LS24.
Die Benchmarks würfeln ja nicht
 
Hier, eine 4070 mit 5700X macht Anno 1800 1080p Ultra ohne DLSS 140 FPS max, jetzt kommt die B580


Jetzt jage ich die ANNO 1800 DX12 Benchmark auf Ultra 1080p drüber und komme auf 150-180Frames und ich habe kein XeSS oder ähnliches an.

Jetzt erklär mir wie das gehen soll ohne DeepLink?
Und das ist es was ich sage, ich habe einen Zweitrechner, 5800X+4070S und der erreicht nur minimal bessere FPS, die 179 sind durch die 180Hz und Sync vom Monitor eingebremst, die 4070s macht minimum 159 bis eben 179 pro RUN in der gleichen benchmark Anno 1800 DX12 Ultra 1080P.

Und genau deswegen verstehe ich nicht, wie das mit einer B580 gehen soll, wenn die die UHD770 im 12600k nicht voll mit nutzt

Und ich schwöre, ich habe keine andere Hardware drinne, und wie jetzt wenn ich quasi im Idle bin nur Internet Explorer ist die B580 quasi aus, 0 Last, keinen Takt, aber die wie man sieht ausgewählte UHD770 arbeitet, obwohl der Monitor an der B580 hängt.
Ergo gibt es eine Schnittstelle und das System verteilt variabel zwischen den beiden GPUs oder nutzt beide Parallel, eben auch in Games.
Anders sind die Werte und auch die Frames und das verhalten nicht zu erklären.

Und jetzt kommst Du und erklärst mir wie DeepLink funktionieren kann, wenn es angeblich gar nicht funktionieren kann!?

Das ist ja kein Wunder Rechner, aber wenn ich sage ich erreiche nahezu gleiche FPS wie meine 4070S in einigen Games, dann sage ich das nicht aus Spaß, das ist ein Fakt und eine B580 Standalone schafft das nicht, unmöglich, das geht nur wenn MultiGPU Nutzung vorliegt.
Und ich klann die ganzen Benchmarks auch gerne als Video mitlaufen lassen, damit Du es siehst.
Aber es gibt keine logische Erklärung, außer DeepLink nutzt beide GPUs parallel, anders erreicht die dGPU nicht im Ansatz solche Werte.
Und XeSS kann es auch nicht sein, das funktioniert in keinem der Games wie RDR2 oder Anno 1800

Screenshot 2026-02-05 160607.png

Screenshot 2026-02-05 160702.png



Screenshot 2026-02-05 153819.png
 

Anhänge

Zuletzt bearbeitet:
Nehmen wir an, es würde durch die Mitnutzung des IGP mehr Leistung entstehen.
Der UHD 770 hat 742.4 GFLOPS. Die B580 hat 14 TFLOPS = 14.000 GFLOPS.
Das heißt es würden maximal 5% Leistung dazukommen wenn man beides perfekt auslasten könnte.

Ich will nicht in Abrede stellen, dass dein PC mit aktiviertem IGP deutlich schneller läuft - warum auch immer.
Nur ist es aus logischer Sicht meiner Meinung nach nicht so erklärbar, wie du es dir erklärt hast.
 
Zurück
Oben