Leserartikel Ist Intel Arrow Lake eine gute Wahl für eine selbstgebaute Steam Machine unter Linux?

Einleitung

PC-Spiele spielen auf einem PC, der sich aber bequem wie eine Konsole anfühlt und nicht wie ein PC? Noch nie war die Zeit für Konsolen-PCs so reif wie jetzt. Dank Valves hervorragender Arbeit mit dem Steam Deck und SteamOS ist es heutzutage überhaupt kein Problem mehr, einen Großteil des Spielekatalogs in einem schlanken Linuxsystem zu spielen, mit einer TV-freundlichen, komplett per Controller bedienbaren Oberfläche. Ich besitze bereits seit Release ein Steam Deck OLED und bin immer wieder begeistert von der einfachen Bedienung. Einschalten, Spiel auswählen, zocken. Und wenn man doch mal mit den Grafikeinstellungen experimentieren möchte, kann man es trotzdem, ist ja schließlich immer noch ein PC.

Der Wunsch nach einem Konsolen-PC

Immer, wenn ich in den letzten Jahren bei meinem Vater, der etwas weiter entfernt von mir wohnt, zu Besuch war, hatte ich das Steam Deck dabei. Das könnte ich mit dem Dock zwar auch an unseren Wohnzimmer-TV anschließen, aber der schwachen APU geht in dem Fall doch sehr schnell die Puste aus. Es war aber schon immer der Wunsch da, auch mal auf dem großen Fernseher zu zocken. Daher habe ich mir auf Basis des Fractal Design Node 202 einen kleinen Mini-ITX-PC zusammengebaut, der klein genug ist, um in das vorhandene Hifi-Rack im Wohnzimmer integriert zu werden.

Die Wahl der Hardware

Nach längerer Überlegung hatte ich mich hier für ein Intel-Arrow-Lake-System entschieden, hauptsächlich wegen des niedrigeren Idle-Verbrauchs, aber ich hatte auch kein Mini-ITX-Board auf AM5-Basis gefunden, welches USB4 hat. Bei Bedarf meine externe USB4-SSD mit voller Geschwindigkeit anschließen zu können, ist aber schon nett. Im Computerbase-Leistungsrating ist ein Intel Core Ultra 7 265K zudem auf gleichem Performance-Niveau wie ein 9700X, mehr Geld hatte ich für die CPU nicht vor, auszugeben. Schlussendlich habe ich mir dann die non-K-Variante gekauft, weil ich neugierig war, ob der aktuelle Intel-Boxed-Kühler was taugt. Als Grafikkarte kommt eine PowerColor RX 9060 XT Reaper 16 GB zum Einsatz. Bei der Wahl der Linux-Distribution habe ich mich für Bazzite entschieden.

Die ersten Auffälligkeiten

Beim Antesten der einzelnen Spiele kamen mir dann aber relativ schnell Zweifel auf, ob die Arrow-Lake-CPU wirklich die richtige Wahl war. Sowohl mein TV als auf der TV von meinem Vater können 4K mit 120 Hz und VRR, gerade durch VRR merkt man ein CPU-Limit in der Regel sofort, weil man die schlechteren Frametimes einfach fühlt. Mir ist einfach beim normalen Zocken in WQHD-Auflösung durchaus ein CPU-Limit aufgefallen, was ich so nicht erwartet hätte.

Um das Thema für mich zu klären, habe ich angefangen, mal zum Vergleich meine anderen CPUs, die ich noch zur Verfügung hatte, zu benchen. Das habe ich auch gleich als Gelegenheit genutzt, mich ins Benchmarken unter Linux mit MangoHud einzuarbeiten, bisher hatte ich immer nur unter Windows mit CapFrameX gearbeitet, welches schon ein sehr praktisches Tool ist, und einem viel Arbeit abnimmt. Das habe ich zwar zunächst nur für mich selber gemacht, irgendwann hat die Datenlage dann aber doch ein Ausmaß angenommen, dass es sich gelohnt hat, das in einen Leserartikel zu verpacken.

Gebencht habe ich den Ryzen 7 1700, Ryzen 7 5700X, Ryzen 7 5700X3D, Ryzen 7 9800X3D und den Intel Core Ultra 7 265. Es kamen insgesamt 3 Testsysteme zum Einsatz. Auf allen war Bazzite in der Version F42.20250720 aus dem Stable-Branch mit Kernel 6.15.6-105 und Mesa 25.1.6 installiert. Es kam durchgehend der RADV-Treiber zum Einsatz.
MainboardASRock B860I Lightning WiFi
RAM2x16 GB Kingston ValueRAM DDR5-6400CL52 CUDIMM
GrafikkartePowerColor RX 9060 XT Reaper 16 GB, händisch auf PCIe 3.0 gestellt (mehr unterstützt die Riserkarte vom Node 202 nicht)
BemerkungenGrafikkarte wurde auf ein Powerlimit von 100 W eingebremst, da das Node 202 mit mehr Abwärme überfordert war. Dem Intel Core Ultra 5 265 habe ich ein fixes Powerlimit (PL1=PL2) von 65 W eingestellt, sonst wurde der kleine Kühler zu laut.
MainboardMSI X570 Tomahawk WiFi
RAM2x32 GB Crucial DDR4-3200CL22 (beim Ryzen 7 1700 nur DDR4-2667CL19 gem. AMD-Spezifikation)
GrafikkartePowerColor RX 9060 XT Reaper 16 GB (PCIe 4.0)
BemerkungenGrafikkarte wurde auf ein Powerlimit von 100 W eingebremst, um die Vergleichbarkeit beizubehalten.
MainboardAsus Prime B650-Plus
RAM2x16 GB Crucial DDR5-5200CL42
GrafikkartePowerColor RX 9060 XT Reaper 16 GB, händisch auf PCIe 3.0 gestellt
BemerkungenGrafikkarte wurde auf ein Powerlimit von 100 W eingebremst, um die Vergleichbarkeit beizubehalten.
Die offiziellen RAM-Spezifikationen von Zen 5 sind eigentlich DDR5-5600, aber hierbei wird der UCLK im Takt halbiert. Das ist ein paar Prozent langsamer als DDR5-5200 im 1:1-Betrieb.

Die Wahl des RAMs

Ich verwende bei all meinen Systemen nur JEDEC-konformen Standard-RAM gem. CPU-Spezifikation ohne XMP- oder EXPO-Profil, weil ich in der Vergangenheit immer Probleme mit der Stabilität bei XMP hatte, auch wenn es konservative Profile waren. Ich habe für mich selbst entschieden, dass ich mir diesen Stress nicht mehr gebe und verzichte daher vollkommen freiwillig auf etwas Performance. Ihr könnt gern pauschal 20 % auf alle Ergebnisse aufschlagen, die Abstände sollten ja gleich sein, weil ich alle CPUs durch JEDEC-RAM benachteilige.

Auch wenn mir die CPU-Limitierung ursprünglich beim normalen Zocken in 1440p aufgefallen ist, habe ich natürlich alle Benchmarks in 720p gemacht, um die Grafikkarte komplett aus der Gleichung zu nehmen. In Spielen, die Upsampling unterstützen, habe ich zusätzlich auch noch FSR2 oder FSR3 benutzt, um die Renderauflösung weiter zu reduzieren.

Folgende Spiele kamen zum Einsatz:
  • Rise of the Tomb Raider (DX12-Version mit FSR3 Ultra-Performance via OptiScaler)
  • Shadow of the Tomb Raider (DX12-Version mit FSR3 Performance via OptiScaler)
  • The Witcher: Enhanced Edition
  • The Witcher 2: Enhanced Edition
  • The Witcher 3: Next-Gen 4.04 (DX12-Version mit FSR2 Ultra-Performance)
  • Yooka-Laylee
  • A Hat in Time
  • Outcast 1.1
Bei der Spieleauswahl gilt es zu beachten, dass ich diesen Vergleich ursprünglich nur für mich selbst machen wollte. Ich spiele in der Regel nicht die neuesten AAA-Games, sondern etwas ältere Sachen. Dementsprechend habe ich mir auch Spiele ausgesucht, die ich selber spiele.

Outcast 1.1 habe ich als Sonderfall dazugenommen, da dieses Spiel wegen der Voxel-Engine komplett auf der CPU ohne Grafikkarte gerendert wird, dabei aber 8 Kerne nutzen kann.

Bei keinem der Spiele habe ich Ingame-Benchmarks benutzt.

Bei Rise of the Tomb Raider habe ich im Geothermalen Tal gebencht, bei Shadow of the Tomb Raider habe ich die PCGH-Testszene benutzt.

In Witcher 1 habe ich mir eine Szene im Händlerviertel in Kapitel 3 ausgewählt, in Witcher 2 habe ich diese Szene von @Baal Netbeck geklaut. 😆 In Witcher 3 bin ich in Novigrad rumgelaufen, von Ferneck über den Fischmarkt bis zum Platz des Hierarchen.

In Yooka-Laylee habe ich im ersten Level (Stammblock-Tropen) mir eine Stelle ausgesucht, die besonders schlecht lief. Genauso in A Hat in Time, Worst-Case-Szenario im Mafia-Town-Level. Bei Outcast bin ich direkt im ersten Gebiet nach dem Intro etwas rumgerannt.

Da die Ergebnisse deutlich von den üblichen Performance-Ratings abweichen werden, ein kleiner Disclamer vorab: Keines dieser Spiele habe ich mir ausgesucht, um irgendeine CPU schlecht dastehen zu lassen. Die 3 Witcher-Spiele und A Hat in Time zählen zu meinen absoluten Lieblingsspielen, in Yooka-Laylee sind mir initial die ersten Probleme aufgefallen und Outcast ist aus technischer Sicht interessant.

Benchmarks

Genug der Vorrede, hier nun die ersten Ergebnisse. Ich denke, das geometrische Mittel aller Spiele wird die meisten interessieren, daher packe ich das mal an den Anfang:
Gesamtindex.png


Da Yooka-Laylee als extremer Ausreißer das Bild stark verzerrt, hier nochmal der Index ohne Yooka-Laylee:
Gesamtindex ohne Yooka-Laylee.png


Im Computerbase-Leistungsindex ist der 9800X3D bei den Durchschnitts-FPS 21% vor dem 265K, bei mir sind es 56%. (Es ist zwar der non-K, aber das bisschen Taktunterschied wird nicht viel ausmachen). Das mag natürlich der anderen Spieleauswahl geschuldet sein, aber die AMD-Grafikkarten, die sich im CPU-Limit ja immer etwas anders verhalten als nVidia, und das Linux-System mit dem Mesa-Grafikstack spielen hier bestimmt auch mit rein. Aber der 265 ist bei mir 9% vor dem 5700X3D, das ist ja auch nicht schlecht.

Aber der alte Ryzen 7 1700 ist ja wirklich schlecht gealtert, ich habe damals 2017 unserem Azubi dieses Teil empfohlen, eine Entscheidung, die ich rückblickend zutiefst bereue.

Und hier nun die einzelnen Spiele:
ROTTR.png
SOTTR.png
witcher.png
witcher2.png
witcher3.png
Yooka-Laylee.png
A Hat in Time.png
outcast_1080p.png
outcast_1440p.png
outcast_2160p.png

Yooka-Laylee ist das erste Spiel gewesen, bei dem mir aufgefallen ist, dass irgendetwas nicht stimmt. Performt auf dem 265 mit eingeschalteten E-Cores sehr schlecht, explodiert aber förmlich mit abgeschalteten E-Cores und ist dann 88% schneller als der 9800X3D. Dieses Spiel war der einzige Grund, warum ich den 265 einmal mit und einmal ohne E-Cores gebencht habe. Alle anderen Spiele reagieren auf die E-Cores entweder gar nicht, oder profitieren sogar, sodass ich davon ausgehe, dass es unter Linux keine Probleme mit der P-/E-Core-Zuweisung gibt.

Outcast in 1440p performt auf dem 5700X schlechter als erwartet, die CPU hat nur in dieser Auflösung Probleme, richtig hochzutakten und läuft weitestgehend unter 3 GHz. In den anderen beiden Auflösungen merkwürdigerweise durchgehend mit knapp über 4 GHz.

Die Tomb Raider-Spiele, Witcher 2 und Yooka-Laylee haben auch native Linux-Versionen. Im Falle der beiden Tomb Raiders sind diese Linux-Ports auch gut und performen besser als die DX12-Version über Proton, aber nur die DX12-Version hat Upsampling. Da ich die Kantenglättungen in beiden Tomb Raider-Spielen sehr hässlich finde, spiele ich daher die DX12-Version mit FSR3.1 und erwarte mit Vorfreude Mesa 25.2 im August mit offiziellem FSR4-Support. Bei Witcher 2 ist die native Linux-Version richtig schlecht, performt mies. Yooka-Laylee habe ich nicht ausprobiert, hier stellt schon das Steam Deck in der Standard-Einstellung auf Proton, bestimmt nicht ohne Grund.

Folgende Spiele habe ich mit abweichenden Proton-Versionen gebencht:
GE-Proton10-9: Rise of the Tomb Raider, Shadow of the Tomb Raider, The Witcher 2, The Witcher 3
Proton 10.0-1 (beta): Yooka-Laylee

Der Rest lief mit der automatisch von Steam ausgewählten Version (irgendeine Proton 9-Version).

In diesem OneDrive-Ordner findet ihr alle Log-Dateien, Save Games, Grafikeinstellungen und die genauen Benchmark-Szenen, damit man alles, was ich gemacht habe, nachvollziehen kann. Da ich sowas in diesem Stil das erste Mal gemacht habe, habe ich bestimmt Fehler gemacht.😆

Fazit

Um abschließend auf die Frage aus der Überschrift zurückzukommen: Ist Arrow Lake denn eine gute Wahl für eine Steam Machine? Nachdem ich zwischenzeitlich anderer Meinung war, sage ich abschließend für mich: Ja, es spricht nichts dagegen. Fast durchgehend schneller als ein 5700X3D, der gewiss nicht schlecht ist, nur der 9800X3D rennt ihm davon. Im Notfall kann man im Steam Deck Gaming Mode ja auch ein FPS-Limit setzen, Rise of the Tomb Raider ruckelt im geothermalen Tal unlimitiert schon ein bisschen, mit 60-FPS-Limit hingegen läufts butterweich. Da kann man dann auch die Auflösung ruhig mal auf 2160p hochstellen und (bald) mit FSR4 arbeiten.

Dies war mein erster Leserartikel, ich hoffe, es war alles gut strukturiert und ich habe mich verständlich ausgedrückt. Ich habe das komplett selbst geschrieben ohne die Hilfe von ChatGPT, das habe ich nur als Unterstützung für die Verformelung in Excel benutzt.

Update:
Nach Hinweisen aus diesem Diskussionsthread, dass die Ergebnisse des 9800X3D durch die andere Grafikkarte nicht wirklich vergleichbar sind, habe ich jetzt alle Benchmarks des 9800X3D noch einmal mit der 9060 XT (eingebremst auf PCIe 3.0) durchgeführt. Die RX 9070 hat den 9800X3D in 3 Spielen zu gut dastehen lassen (Rise of the Tomb Raider, Shadow of the Tomb Raider und Witcher 3). Bei der Gelegenheit bin ich auch noch den Wünschen der Community nachgegangen und habe den Intel Core Ultra 5 265 mit höherem TDP-Limit und den 9800X3D mit 65-W-Limit getestet. Die Einzelgrafiken und die beiden Index-Grafiken wurden entsprechend aktualisiert. Vielen an alle Community-Mitglieder für die Verbesserungsvorschläge und Anregungen.
 
Zuletzt bearbeitet: (Siehe Update-Notiz)
  • Gefällt mir
Reaktionen: Deinorius, Alesis, badb100d und 28 andere
Bevor ich es lese.. Mein Vorschlag wäre Zwischen-Überschriften zu verwenden.
 
  • Gefällt mir
Reaktionen: Fragger911, Sensei21, H3llF15H und 2 andere
Puh... es ist offensichtlich, dass du dir viel Mühe gemacht hast, aber das ist eine ziemliche Wand an Text.

An deiner Stelle würde ich zumindest die Gesamtindex Bilder aus dem Spoiler raus nehmen und in den Fließtext packen und vielleicht von den Testsystemen jeweils ein Bild in den Leserartikel packen, rein um den Text etwas aufzulockern mit visuellen Reizen.

Und vielleicht die Absätze mit Überschriften voneinander absetzen.

mario_mendel34 schrieb:
Ist Arrow Lake denn eine gute Wahl für eine Steam Machine? Nachdem ich zwischenzeitlich anderer Meinung war, sage ich abschließend für mich: Ja, es spricht nichts dagegen. Fast durchgehend schneller als ein 5700X3D, der gewiss nicht schlecht ist, nur der 9800X3D rennt ihm davon.
Ich würde mal behaupten, dass du den Satz umdrehen musst.

Es ist nicht, dass Arrow Lake eine gute Wahl ist, sondern, dass Arrow Lake keine schlechte Wahl ist. Die X3D Serie ist jetzt seit >3 Jahren auf dem Markt. Da ungefähr auf gleicher Höhe sein ist nicht umbedingt ein Kompliment.

mario_mendel34 schrieb:
PowerColor RX 9060 XT Reaper 16 GB, händisch auf PCIe 3.0 gestellt (mehr unterstützt die Riserkarte vom Node 202 nicht)
Hattest du das mal getestet? Schmeißt das System Fehler falls du PCIe 4.0 versuchst?
 
  • Gefällt mir
Reaktionen: H3llF15H, AlanK und mario_mendel34
@TorenAltair @Rickmer Danke für das Feedback. Ich habe mal versucht, die Textwüste etwas auseinanderzuziehen.

Rickmer schrieb:
Hattest du das mal getestet? Schmeißt das System Fehler falls du PCIe 4.0 versuchst?
Nein, ich hatte nur im Vorfeld im Internet gelesen, dass es Stabilitätsprobleme mit 4.0 gibt und Fractal empfiehlt in der eigenen FAQ, den PCIe-Link-Speed auf 3.0 festzusetzen.

Ich hatte das System allerdings zum ersten Testen offen betrieben, noch ohne Riser-Karte. Da hatte ich schnell einen 3DMark Steel Nomad gemacht mit PCIe 5.0 und 3.0. Es war kein Unterschied vorhanden.
 
  • Gefällt mir
Reaktionen: TorenAltair
mario_mendel34 schrieb:
@TorenAltair @Rickmer Danke für das Feedback. Ich habe mal versucht, die Textwüste etwas auseinanderzuziehen.
Das sieht schonmal besser aus :)
Mindestens den Fazit würde ich noch hervorheben.

mario_mendel34 schrieb:
Nein, ich hatte nur im Vorfeld im Internet gelesen, dass es Stabilitätsprobleme mit 4.0 gibt und Fractal empfiehlt in der eigenen FAQ, den PCIe-Link-Speed auf 3.0 festzusetzen.
Fair enough. Bei der 16GB Variante der Karte ist der Geschwindigkeitsunterschied ja eh mehr oder minder vernachlässigbar.
 
  • Gefällt mir
Reaktionen: Tanzmusikus
mario_mendel34 schrieb:
nur der 9800X3D rennt ihm davon.
Dann vergleich doch mal einen 9800X3D auf 65W eingebremst,
mit einer langsameren Grafikkarte, der du auch noch 50% vom Powerlimit klaust und das Interface halbierst,
mit einem Intel 265, der normal läuft.

Dann lautet das Fazit:
nur der 9800X3D Intel 265 rennt ihm davon.

So viel Text, so viel Mühe und dann ist es trotzdem vollkommen für die Tonne, weil nichts davon irgendwie vergleichbar ist.
Das ist wie allen Bayern Spielern einen Arm auf den Rücken zu binden, die Schnürsenkel zu verknoten und sie mit einer dicken Winterjacke gegen den BVB bei 28°C antreten zu lassen.
Wobei der BVB dann seine normalen Trikots und Schuhe trägt, aber hey,
es sollte also trotzdem einigermaßen vergleichbar sein.
:watt:
 
  • Gefällt mir
Reaktionen: Tanzmusikus
Dem 9800X3D ein 65-W-Limit einzustellen, kostet vielleicht ein paar Prozent Takt, der wäre trotzdem noch deutlich schneller. Die langsamere Grafikkarte, ich habs ja im anderen Thread schon geschrieben, spielt keine Rolle, wenn sie nicht limitiert, ist ja die selbe RDNA4-Architektur. Das PCIe-Interface zu verlangsamen, kostet nur Leistung, wenn der VRAM voll läuft, was bei 16 GB eher nicht passiert.
 
  • Gefällt mir
Reaktionen: Tanzmusikus
mario_mendel34 schrieb:
kostet vielleicht ein paar Prozent Takt
Nicht vielleicht, sowas testet man und arbeitet nicht mit Vermutungen.
Zumal 35% weniger Stromverbrauch = nur wenige Prozent weniger Leistung. Unrealistisch.
 
Ich habe jetzt mal exemplarisch mir mit dem 9800X3D in Shadow of the Tomb Raider das Taktverhalten angesehen. Mit Standardlimits 5250 MHz, und mit 65W, 60A und 90A 4500 MHz. Wären also im schlimmsten Fall ca. 16 % Performanceverlust. Ja, das ist mehr als ein paar Prozent, ist aber trotzdem immer noch deutlich schneller als der Intel.
 
  • Gefällt mir
Reaktionen: Tanzmusikus
Vielen Dank für den starken Artikel, hat mir wirklich weitergeholfen und Lust gemacht, das Thema Mini-PC als Steam-Client selbst auszuprobieren.
Eine Frage hätte ich noch: Welches Betriebssystem nutzt du für das Setup?
Wäre super, wenn ihr vielleicht eine kurze Anleitung geben könntet, wie man das OS installiert, die nötigen Treiber einrichtet und anschließend Steam optimal aufsetzt.

War schon viel am herum experimentieren. Besonders Inteltreiber unter Linux haben ordentlich gefrustet.
AMD soll da angenehmer sein.

HoloISO
Bazzite

War bisher beides eher Pain in the ass :/
 
Ich habe Bazzite benutzt. Der Installer ist in der Tat ein bisschen frickelig, aber sobald der durchgelaufen ist, ist eigentlich schon alles vorinstalliert. Man kann sich direkt danach in Steam anmelden und loszocken. AMD ist unter Linux in der Tat sehr stressfrei, der Kerneltreiber ist sehr stabil und der RADV-Treiber der mesa performt wirklich gut.
 
  • Gefällt mir
Reaktionen: davbeer und *Powerpuffi*
Zurück
Oben