Iron Harvest im Test: GPU- und CPU-Benchmarks sowie Frametimes

 2/3
Wolfgang Andermahr et al.
94 Kommentare

Alle nachfolgenden Benchmarks wurden auf einem AMD Ryzen 9 3900XT (Test) durchgeführt, der mit den Standardeinstellungen betrieben wird. Als Mainboard wurde das Asus ROG Strix B550-E Gaming (BIOS 0802) mit dem B550-Chipsatz verbaut, Grafikkarten können entsprechend mit PCIe 4.0 angesteuert werden. Die CPU wurde von einem Noctua NH-D15S mit zentral installiertem 140-mm-Lüfter gekühlt. 32 GB Speicher (4 × 8 GB, Single-Rank, DDR4-3600, 16-16-16-38, optimierte Sekundär-Timings) standen dem Prozessor zur Verfügung. Ein frisch aufgespieltes Windows 10 2004 mit sämtlichen Updates war auf einer NVMe-M.2-SSD mit PCIe 4.0 installiert, dasselbe galt für AMDs aktuellen Chipsatztreiber.

Als Treiber wurden der Adrenalin 20.8.3 beziehungsweise der GeForce 452.06 genutzt, die jeweils nicht offiziell für Iron Harvest optimiert sind.

Testsequenz und Einstellungen

Grafikkarten- und Prozessor-Benchmarks erhalten eine unterschiedliche Testsequenz. Die Szene für GPU-Benchmarks spielt im Kampagnen-Abschnitt „Peace and Prosperity“ bei Nacht und zeigt einige wenige Einheiten, ein Gebäude, viel Wald und ein wenig Feuer. In niedrigen Auflösungen ist die Framerate deutlich höher als bei der CPU-Sequenz, in hohen gleicht sich diese aber an und ist dann fast identisch.

Die CPU-Benchmarks finden dagegen auf der Kampagnenkarte „To the Rescue“ statt. Zu sehen ist ein Kampf mit zahlreichen Einheiten und Explosionen. Die Sequenz ist viel dynamischer, aber trotzdem reproduzierbar. Die Framerate ist in niedrigen Auflösungen deutlich geringer als die der GPU-Sequenz, da die Auflösung bei einer flotten Grafikkarte kaum einen Einfluss auf das Endergebnis hat. Die CPU-Benchmarks werden im Laufe des Mittwochs nachgereicht.

Für die Auflösungen Full HD, WQHD sowie Ultra HD werden mit dem Hoch-Preset die maximal möglichen Grafikdetails genutzt.

Auflösung Grafikdetails
1.920 × 1.080 Hoch-Preset
2.560 × 1.440 Hoch-Preset
3.840 × 2.160 Hoch-Preset

GPU-Benchmarks in Full HD, WQHD und Ultra HD

Iron Harvest hat vielleicht für ein Echtzeitstrategiespiel verhältnismäßig hohe Anforderungen an die Grafikkarte, generell betrachtet sind diese aber mittelmäßig. Für das Spiel längst nicht nötige 50 FPS gibt es in Full HD auch schon mit einer GeForce GTX 1060, GeForce RTX 1650 Super, Radeon RX 580 oder Radeon RX 5500 XT. Für WQHD braucht es dafür nicht mehr als eine Radeon RX Vega 64, Radeon RX 5600 XT, GeForce RTX 2060 oder GeForce GTX 1080. Auch die Modellklasse darunter liefert noch ein absolut spielbares Erlebnis. Erst für Ultra HD muss es schnell werden, 50 FPS gibt es nur mit der GeForce RTX 2080 Ti. Ab einer GeForce RTX 2070 Super ist die Framerate jedoch noch ausreichend.

Iron Harvest bevorzugt keine GPUs, auch wenn es mal kleinere Vor- oder Nachteile für die eine oder andere Seite gibt. AMDs aktuelle RDNA-Architektur kommt in dem Strategiespiel nicht so richtig in Fahrt. Die GeForce RTX 2070 Super ist in 2.560 × 1.440 16 Prozent schneller als die Radeon RX 5700 XT. Das ist zwar näher am klassischen AAA-Schnitt dran, dort beträgt der Unterschied aber nur 11 Prozent. Und auch der Abstand zwischen der Radeon RX 5500 XT gegenüber der GeForce GTX 1650 Super ist kleiner als gewöhnlich – zu Gunsten Nvidias.

Vega ist mal wieder langsam(er), Polaris dagegen gut unterwegs

Nicht optimal, aber ordentlich unterwegs ist dagegen AMDs alte GCN-Riege – aber nicht die größte Ausbaustufe Vega, deren Topmodell Radeon RX Vega 64 sich der GeForce GTX 1080 um satte 19 Prozent geschlagen geben muss und in der Auflösung normalerweise gleich schnell arbeitet. Die langsamere Polaris-Serie ist dagegen ordentlich unterwegs, die Radeon RX 580 liegt nur minimal hinter der GeForce GTX 1060, die Radeon RX 590 ist 9 Prozent schneller.

Der Vergleich zwischen den Technologie-Generationen zeigt, dass neu in Iron Harvest nicht immer besser sein muss als alt. Die Radeon RX 5700 XT mit RDNA ist zwar 30 Prozent schneller als die Radeon RX Vega 64 mit GCN und damit weiter voraus als gewöhnlich, verglichen mit der kleineren Radeon RX 580 ist die Radeon RX 5700 XT aber nicht ungewöhnlich schnell, sondern zeigt das zu erwartende Ergebnis. Die GeForce RTX 2070 Super mit Turing ist derweil 27 Prozent schneller als die GeForce GTX 1080 mit Pascal – und liegt damit unter dem normalen AAA-Schnitt. Das spiegelt sich auch in der Einsteigerklasse wider.

Ordentliche Frametimes mit ein paar Ausreißern

Für ein Strategiespiel bietet Iron Harvest auf jeder Grafikkarte ordentliche Frametimes. Wer die Ergebnisse genau betrachtet, erkennt jedoch immer mal wieder mittelgroße Ausreißer bei den Abständen zwischen den einzelnen Bildern. Diese variieren von Modell zu Modell leicht, schlussendlich haben aber mit GeForce RTX 2070 Super, Radeon RX 5700 XT, GeForce GTX 1080 und Radeon RX Vega 64 alle vier Modelle mit unterschiedlicher Technik damit zu kämpfen.

Die gute Nachricht dabei: Es spielt keine Rolle. Als Echtzeitstrategiespiel ist Iron Harvest ziemlich unempfindlich gegenüber unregelmäßigen Frametimes. Und die Ausreißer sind schlicht nicht groß genug, um spürbar zu sein.

Iron Harvest – Frametimes, 2.560 × 1.440 0612182430 012345678910111213141516171819202122232425Sekunden  AMD Radeon RX Vega 64  Nvidia GeForce GTX 1080  AMD Radeon RX 5700 XT  Nvidia GeForce RTX 2070 Super

Prozessor-Benchmarks zeigen große Unterschiede (Update)

Der Core i9-10900K ist die schnellste CPU in Iron Harvest. Das gilt jedoch nur für die Durchschnitts-Framerate, bei der Intels Consumer-Flaggschiff 10 Prozent schneller als der Core i5-10600K und gleich 17 Prozent zügiger als der Ryzen 9 3900XT ist. Bei den Perzentil-FPS liegen Core i9-10900K und Ryzen 9 3900XT hingegen gleich auf. Der Core i5-10600K ist 10 Prozent langsamer.

Das Bild zieht sich durch alle Ergebnisse. Intel CPUs schneiden besser bei den Durchschnitts-FPS ab, die von AMD schlagen dann bei den Perzentil-FPS zurück. Ryzen 5 3600 und Ryzen 9 3900XT schneiden derweil fast gleich ab, mehr als 6 Kerne inklusive SMT bringt in Iron Harvest also keinen Leistungsschub mehr. Bei der Framerate ist der Ryzen 3 3300X mit 4 Kernen und SMT gar 4 Prozent schneller als der Ryzen 9 3900XT. Bei den Perzentil-FPS ist er dagegen 18 Prozent langsamer – hier zeigt sich dann, dass das Strategiespiel mit nur 4 Kernen nicht die volle Leistung erreicht, dazu sind deren 6 nötig.

CPU-Tests auf einer Asus RTX 2080 Ti Strix OC – 1.920 × 1.080
  • FPS, Durchschnitt:
    • Intel Core i5-10900K (10K/20T)
      65,3
    • Intel Core i5-10600K (6K/12T)
      59,5
    • AMD Ryzen 3 3300X (4K/8T)
      57,8
    • AMD Ryzen 9 3900XT (12K/24T)
      55,7
    • AMD Ryzen 5 3600 (6K/12T)
      54,3
    • Intel Core i7-7700K (4K/8T)
      51,8
    • Intel Core i3-9100 (4K/4T)
      49,5
    • AMD Ryzen 5 2600X (6K/12T)
      47,8
    • AMD Ryzen 5 1600X (6K/12T)
      41,4
  • FPS, 0,2% Perzentil:
    • AMD Ryzen 9 3900XT (12K/24T)
      39,5
    • Intel Core i5-10900K (10K/20T)
      39,5
    • AMD Ryzen 5 3600 (6K/12T)
      37,5
    • Intel Core i5-10600K (6K/12T)
      35,5
    • AMD Ryzen 3 3300X (4K/8T)
      32,4
    • Intel Core i7-7700K (4K/8T)
      27,7
    • AMD Ryzen 5 2600X (6K/12T)
      26,4
    • Intel Core i3-9100 (4K/4T)
      25,8
    • AMD Ryzen 5 1600X (6K/12T)
      22,9

SMT bringt keinen Leistungsschub

Der Core i7-7700K fällt deshalb ebenso deutlich zurück. Bei den FPS beträgt der Rückstand zum Core i5-10600K 13 Prozent, bei den Perzentil-FPS sind es 22 Prozent. Der Core i3-9100 mit ebenso 4 Kernen, aber ohne SMT, ist beinahe gleich schnell. SMT bringt in dem Strategiespiel offenbar keine zusätzliche Performance.

Die alten Ryzen-CPUs fallen deutlich zurück

Trotz 6 Kernen schneiden AMDs alte Ryzen-Prozessoren deutlich schlechter als die aktuelle Generation ab. Der Ryzen 5 2600X ist 12 respektive 30 Prozent langsamer als der Ryzen 5 3600 und liegt damit noch unter dem Niveau des Core i7-7700K. Der Ryzen 5 1600X liegt weitere 13 Prozent zurück. Da ist selbst der Core i3-9100 deutlich schneller.

Auf der nächsten Seite: Spielkritik und Fazit