Test Apex Legends im Benchmark: 29 Grafikkarten & 5 iGPUs von AMD, Nvidia und Intel im Test

@Iscaran hast natürlich recht, dass es schlecht optimiert ist, darüber will ich nicht streiten. Troztdem wird eine schnellere CPU, da bessere Ergebnisse erzielen, als eine langsamere. Mit den FX 6300 damals war das spiel die Hölle für mich, low fps und öfter Standbilder...

So war das bei mir auch damals, läuft wohl heute genauso bescheiden auf den fx 6300 ^^
 
scöner test.
mein resüme:
meine r9 290 würde in 1080p garnicht so schlecht da stehen, wohl nicht auf 'alles max' aber immerhin auf 'mittlere qualität'
UND
ne schnellere karte kann, was dieses spiel angeht, noch warten ;-)
spart ne menge geld ;-)
 
@Wolfgang
Ja immer noch unreal 4 aber die haben das physics System gewechselt (auf chaos). Realistischere Zerstörung usw. Ich habe ehrlich gesagt kein Unterschied gemerkt, wahrscheinlich werden sie erst später das potenzial ausnutzen.
 
Gut, an sich ist die Idee nicht verkehrt die gängigen/meist gespielten Mainstream-Multiplayer-Ego-Shooter auch bzgl. Ihrer Tauglichkeit insbesondere für Hochfrequenz-Gamer oder einfache Laptop CPU-iGPU-Combos und APUs (wenn Tiger Lake und Renoir auf den Markt kommen, wird das sicherlich noch interessanter werden) zu testen.

Für mich kommt da wenig bis kaum etwas herum, weil mich die Art Spiele einfach dauerhaft nicht genug motivieren bzw. zu sehr Schema F/eintönig sind, aber ich bin dann eben nicht Zielgruppe dieser Testserie, das ist schon klar ;).

Andere Spiele-Genres ausserhalb überwiegend der Shoot'em Ups (wenigstens ein MMORPG hat es mit WoW in den Test geschafft sowie zwei MOBAs... Rocket League bspw. Fehlanzeige), wären noch nett gewesen, aber egal.

Vielleicht wird es so etwas ja zukünftig auch für die (ressourcen-)forderndsten AAA Titel (Star Citizen (Alpha), Resident Evil 2 (texturmaximiert), GTA V (komplett maxed out), Warhammer 2 - Total War (maxed out), etc.) geben oder auch ein breiter VR Spiele-GPU-Vergleichstest.

Dass diese Titel i.d.R. stärker nVidia-GPU-optimiert sind, dürfte vielen ja schon vorher bekannt gewesen sein, so gesehen findet sich wenig Überraschung.
 
Bin ein wenig irritiert wegen der Anfänglichen Übersicht der Grafikkarten, weil manche tauchen nirgendwo auf ... z.B. die GTX 1080 ... mir ist natürlich klar das man ungefähr sehen kann, wo die liegen würde (z.B. bei 2070 super gucken), aber dennoch frage ich mich, warum sie oben in der Übersicht mit drin steht, wenn sie anscheinend nicht benutzt wurde?!
 
DANKE für den Test mit den iGPUs! Das wird viel zu selten gemacht und meistens dann nur einzelne iGPUs gegen einen Gegenspieler. Das man hier Mal vom popeligen Pentium bis zum 3400G und die LowEnd-Karten in einem gemeinsamen Testfeld sieht ist wirklich ein seltener Fall.
Ich hätte bei weitem nicht gedacht das der 3400G mit einer 1030 schritthalten kann.
 
Iscaran schrieb:
ARMA 3 ist, wie ein paar andere Spiele auch die solche Effekte zeigen, ein ganz schlechter "Test" für "CPU"-Limit.

Wie man im Video sehen kann "dümpeln" die CPU-Cores allesamt bei 30-50% Last rum...und das soll also "CPU"-limitiert sein. Bei ARMA und vielen anderen solchen Games wo oft von "CPU"-Limit gefaselt wird limitiert was ganz anderes. Nämlich die Software, die es nicht mal annähernd schafft die vorhanden Ressourcen auch zu benutzen.

Aber das hab ich schon hundertmal gepostet und keiner kapierts...schreit ruhig nach noch mehr CPU-Power und noch mehr "CPU-Limit"....gegen schlecht Software hilft euch das leider nicht.

Kenne das auch von meinem 2200 @Oc so das immer die gpu hart limitiert in aktuellen Games die 4 Kerne auch nutzen. Allerdings schaffen es so Games wie Division 1, Ghost Recon , AC, Fallout die CPU durchaus auch mal zu fordern mit 60-70%. In älteren Games oder Indies dümpelt die CPU allerdings vor sich hin.
 
  • Gefällt mir
Reaktionen: Iscaran
Tja, meine 1070 ist ja nicht die frischeste mehr. Daß aber der Unterschied zur 2070 so deutlich ist...

Naja, ich warte auf "Die Siedler". Da wird sie wohl ausreichen.
 
Skjöll schrieb:
Tja, meine 1070 ist ja nicht die frischeste mehr. Daß aber der Unterschied zur 2070 so deutlich ist...

Der Unterschied zu 2070S ist deutlich, die 2070 ist gleichzusetzen mit 2060S.
 
Mydgard schrieb:
wenn sie anscheinend nicht benutzt wurde?!

Wurde doch benutzt. Einmal beim UHD-Test der Oberklassekarten und einmal beim Full HD-Test wo alle Karten teilnehmen.

Vlt. schaust du etwas weiter "unten" bei den Balken. In der Nähe der 2070S ist sie nämlich nicht ;)
 
  • Gefällt mir
Reaktionen: Mydgard
meine gtx 1070 und i7 4770k reichen zum Glück noch für FullHD aus. :daumen: bin auf den PUBG Benchmark gespannt.
 
Vitec schrieb:
Kenne das auch von meinem 2200 @Oc so das immer die gpu hart limitiert in aktuellen Games die 4 Kerne auch nutzen. Allerdings schaffen es so Games wie Division 1, Ghost Recon , AC, Fallout die CPU durchaus auch mal zu fordern mit 60-70%. In älteren Games oder Indies dümpelt die CPU allerdings vor sich hin.
Ja klar - weil Indies oder ältere Games hauptsächlich single-thread optimiert sind, falls überhaupt.

Geht aber auch anders rum, Ich kenne Indie-Spiele bei denen bereits im ingame-Menu (ohne Mausbewegung) die CPU-Last bei 20% liegt....saubere Programmierung ist was anderes.
 
Iscaran schrieb:
Ja klar - weil Indies oder ältere Games hauptsächlich single-thread optimiert sind, falls überhaupt.
Geht aber auch anders rum, Ich kenne Indie-Spiele bei denen bereits im ingame-Menu (ohne Mausbewegung) die CPU-Last bei 20% liegt....saubere Programmierung ist was anderes.
Das ist bei allen alten und neuen Spielen der Fall, dass der Menu deutlich mehr frisst (auch der Stromverbrauch) als die Spielerei. Diablo3 sowie sc2 sind es 25watt unterschied zwischen Spielerei und Menü.
Es wird nur für die Spielerei programmiert. Menu wird komplett liegengelassen. Ich "schreie" schon lange (über 1 Jahr bereits) für einen internen fps-cap=60fps für ALLE Spiele im Menu.
Zum Glück kann man beim sc2 einen fps-cap NUR für den Menu einstellen. Fürs Menü 80watt gespart!
 
@Nero: Ne, ne das Menu IST FPS capped (75) in meinem Fall. Keine Ahnung was die CPU da macht...sollte ja "idlen"...
EDIT: Und die GPU ist in dem Fall bei 0.
Ich vermute, daß das "Rendering" des Menus oder sowas via CPU programmiert ist und dann auch noch "statisch" (also es werden wirklich 75 Bilder gemacht obwohl allle diese Bilder identisch sind)....anstatt nur "dynamisch" rechnen zu lassen und neue Bilder nur auszugeben wenn was passiert (z.B. Mauszeigerbewegung).
 
Wow, vielen Dank für den ausführlichen Test.
Mich würde mal interessieren, wie viel Zeit ihr für so einen Test benötigt. @Wolfgang @Jan

Mal grob gerechnet:
72 einfache Testdurchläufe
da ein Durchlauf nicht aussagekräftig genug ist, habt ihr sicher (mindestens) 3 Durchläufe pro Karte gemacht.
Erster Durchlauf mit Spielstart rechne ich mal 5 Minuten
Die nachfolgenden beiden Durchläufe mit 3,5 Minuten
Macht pro System 12 Minuten reine Testzeit
864 Minuten = 14,4 Stunden reine Testzeit im Spiel.
Dazu kommen noch die Einstellungen der Settings, der Hardwareumbau, der sicher auch nochmal viel Zeit in Anspruch nimmt (wahrscheinlich mit frischer Windows Installation), sowie das Zusammenfassen der Ergebnisse + das Schreiben des Artikels.

Da sitzt ihr doch sicher 2 Wochen an so einem Test, oder?
 
Beeindruckend und nun endlich mal schwarz auf weiß sind die Leistungen der OnChip NAVIs von AMD. Da hat die Grafikeinheit des AMD Ryzen 5 doch schonmal die halbe Leistung meiner GeForce 1050TI. Und solange intel nichts serienfertiges anzubieten hat. bleibt das auch mal so.
Mindestens ebenso lehrreich scheint die Erkenntnis, dass die Beschleuniger im High-Endbereich leistungsmäßig deutlich näher beieinander sind, als es der Preis unterschied vermuten ließe.
Und auch wenn ich intel im Bereich "wir-bauen-jetzt-eigene-grafikkarten" eher belächeln möchte, so würde ein konkurennzfähiges Produkt die Entwicklungen in diesem Bereich nochmals vorantreiben.
 
Zurück
Oben