Test Overwatch im Benchmark: 29 Grafikkarten & 5 iGPUs von AMD, Nvidia und Intel im Test

usernamehere schrieb:
Was bei Overwatch sehr interessant ist, meiner Meinung nach, ist das Verhalten mit der Auflösungsskalierung. Stellt man sie auf 100% fährt man eigentlich immer ins GPU Limit, soweit normal. Wenn man die Skalierung aber reduziert, bspw. auf 75% oder 50% [...]
Ist doch wahrscheinlich irrelevant, ich kann mir nicht vorstellen, dass jemand mit weniger als 100% spielt, so unscharf wie das ganze Bild sonst wird.

derin schrieb:
Da Overwatch nicht wie CS:Go von 300+ fps profitiert
Jedes Spiel profitiert von vielen FPS.

derin schrieb:
konstante 144 fps reichen hierbei voll aus
Nein. Für dich vielleicht, aber auch bei Overwatch gibt es einen Unterschied zwischen 144 und 300 FPS. Außerdem schwanken FPS immer, konstante FPS gibt es ohne Limiter nicht.
 
  • Gefällt mir
Reaktionen: aklaa und cruse
MarcoMichel schrieb:
Erstaunlich finde ich, dass die 5700XT beinahe genauso schnell ist wie die AMD Radeon VII.
Was ist daran erstaunlich?
Die beiden Karten geben sich generell nicht viel und es hängt meist einfach an der generellen Optimierung einzelner Titel wohin der Balken ausschlägt oder ob der große Speicher zumindest in 4k weiter hilft.
Und Vega in der großen Ausbaustufe als GPU war halt auch mal ein ziemlicher Schuss in den Ofen...
 
Don Sanchez schrieb:
Ist doch wahrscheinlich irrelevant, ich kann mir nicht vorstellen, dass jemand mit weniger als 100% spielt, so unscharf wie das ganze Bild sonst wird.

Da ich das Spiel wirklich sehr aktiv spiele, kann ich das verneinen. Fast jeder Spieler in höheren Elos spielt mit 75% Skalierung, hab ich selbst auch ne ganze Zeit lang.
 
usernamehere schrieb:
Da ich das Spiel wirklich sehr aktiv spiele, kann ich das verneinen. Fast jeder Spieler in höheren Elos spielt mit 75% Skalierung, hab ich selbst auch ne ganze Zeit lang.
Und wieso das? Nur für die höheren fps?
 
bei ner niedrigen Skalierung gehen oftmals Details verloren, gerade wenn ich snipern will und ich auf kleinste Bewegung in der Umgebung achten muss.
Für mich ist das immer auf 100% und nie darunter. War schon früher so bei mir.
 
ebmako schrieb:
Und wieso das? Nur für die höheren fps?
gefühlt sind dann nur noch Wände und Spieler auf den Maps, macht aber für mich als mittlerweile nur noch Tank-Spieler wenig aus. Mein Kumpel ist noch etwas höher auf GM und spielt fast nur Widowmaker (Scharfschütze) und ihm hilft es wohl.
 
usernamehere schrieb:
Unglaublich unwahrscheinlich, wenn sich daran nichts ändert, selbst wenn man den Takt der CPU verändert
Das was Luks geschrieben hat, war schon korrekt. Wenn du kein voll ausgelastete GPU (96-97%+) hast, bist du im CPU Limit. Das bisschen am Takt schrauben ändert daran nichts.
 
  • Gefällt mir
Reaktionen: jlnprssnr
usernamehere schrieb:
Da ich das Spiel wirklich sehr aktiv spiele, kann ich das verneinen. Fast jeder Spieler in höheren Elos spielt mit 75% Skalierung, hab ich selbst auch ne ganze Zeit lang.
Igitt...
 
Schöner Test.
Mich wundert aber ein bisschen wieso man nicht einfach ein Replay als Benchmark verwendet hat.
Denn dann hat man auch reproduzierbare Ergebnisse.

usernamehere schrieb:
Mein Kumpel ist noch etwas höher auf GM und spielt fast nur Widowmaker (Scharfschütze) und ihm hilft es wohl.
So ganz verstehen kann ich das nicht.
Ich spiele zwar keine Widowmaker aber als Ana Spieler fände ich eine geringere Auflösung auf Distanz eher schlecht.
 
Gefühlt reicht für Overwatch ein Zeichenblock mit einem spitzen Bleistift um es flüssig darzustellen :D
 
  • Gefällt mir
Reaktionen: ebmako
nvidia.png

Ja, die Statistiken sind stark anzuzweifeln, aber auch Nvidia hat es begriffen. ;)
Wer kompetitiv spielen möchte braucht möglichst viele FPS.
 
  • Gefällt mir
Reaktionen: usernamehere und M001
@Chillaholic Mit noch höheren Frameraten kann man sogar in die Zukunft blicken!!11 ;)
 
  • Gefällt mir
Reaktionen: cele, GreyPrinceZote, v_ossi und 2 andere
DearBoy schrieb:
Wer dieses Spiel "ernsthaft" spielt, stellt die Details eh auf niedrig bzw. low, um die maximale FPS Anzahl zu erreichen. (...)

Wieso das? Man kann das ja auch auf Ultra/Epic mit 144 FPS spielen.
 
  • Gefällt mir
Reaktionen: bad_sign
Langsuan schrieb:
Wieso das? Man kann das ja auch auf Ultra/Epic mit 144 FPS spielen.
Weil sonst zuviel Müll aufm Bildschirm ist.
Selbst auf sehr niedrig wird man mit Effekten zugemüllt die die Sicht behindern, ganz zu schweigen von den Waffen die fast 1/3 des Bildschirms verdecken.
 
  • Gefällt mir
Reaktionen: Botcruscher und cruse
Wolfgang schrieb:
Overwatch stellt keine hohen Anforderungen an die Grafikkarte. Bei reduzierten Details lässt sich das Spiel in 1.920 × 1.080 auch mit einem Ryzen 5 3400G (Radeon Vega 11) spielen – die 60-FPS-Marke wird zwar nicht ganz erreicht, spielbar ist der Titel aber.

Bevor ich anfange zu meckern: Ich besitze Overwatch neben dem PC auch auf der Switch, wo es in 720p30fps stabil läuft. Man kann das Spiel auf der Konsole spielen, es sieht recht gut aus und es läuft im Rahmen der 30fps flüssig, nicht mehr und nicht weniger. Wir sprechen hier aber auch von einer 200€ Spielekonsole und ich spiele das Spiel dort nur ab und an wenn ich eben unterwegs bin, so viel vorab.

Bei einem (teureren) PC habe ich - besonders bei Shootern - einfach andere Anforderungen an die Hardware und da ist so ein Test - danke übrigens dafür - der Beweis, dass die AMD APUs mit der integrierten Vega-Grafik fürs Spielen ungeeignet sind und es bleiben. Da bringen dem Nutzer auch die auf den AMD-Präsentationsfolien so aufgebrezelten Balkendiagramme mit Leistungsunterschied zu den Intel iGPU nichts: Das Doppelte und Dreifache von (quasi) 0 ist eben immer noch 0.

Umso mehr begrüße ich bei AMD den neuen Weg, den man ja nun bei Renoir im Notebook geht: iGPU wieder etwas zurückdrehen (für Office, Multimedia und Streaming reichts ja immer noch locker) und dafür stärker den Fokus auf die CPU!

Oder alternativ eben ein 95W Modell auf den Markt werfen mit anständiger, entsprechend starker iGPU, sodass man bei AMD den Anspruch erheben kann, klassische ESports-Titel (nein, ich nenne sie jetzt nicht alle) bei 1080p60fps und mittleren bis hohen Details uneingeschränkt spielen zu können.
 
  • Gefällt mir
Reaktionen: Stuntmp02
Also, mit meinem 2400G kann ich vieles auf meinem TV spielen. Für zwischendurch sehr brauchbar. Seit neustem in einem DeskMini. So klein, günstig und leise ist schon ne Ansage. Grid2, geht sogar angenehm in 4K.
 
Bisher ist in den Test die 2080 Super echt verlockend. Sie ist im Bezug auf Preis/FPS nicht ganz so krass teuer wie die 2080 Ti und mit ein bisschen Plan kann man aus allen E-Sport-Titeln 240 FPS rausholen ohne auf eine wirklich gute Optik verzichten zu müssen. Und vielleicht wird sie ja noch günstiger wenn die neue Generation Grafikkarten erscheinen.
 
MarcoMichel schrieb:
Erstaunlich finde ich, dass die 5700XT beinahe genauso schnell ist wie die AMD Radeon VII.

Was genau wundert dich daran, vor allem hier, in diesem Test? Dieses Verhalten hat sich schon in unzähligen Titeln gezeigt, teilweise ist die 5700XT sogar schneller als die VII.

Vorallem du, als Besitzer der Karte solltest doch wissen, dass AMD nicht gelogen hat, als sie sagten RDNA hat deutlich mehr Gaming-Performance pro Flop, als GCN.
 
.... denn die Benchmarks in 3.840 × 2.160 zeigen eine recht schwache GCN-Generation.

Es ist dann die Frage, ob man das - wie hier - an einer angeblich schwachen GCN-Architektur festmachen will oder aber vielleicht stattdessen am Unvermögen oder mangelndem Willen auf diese Architektur als Entwickler besser zu optimieren ;).

Damals hat sich (Activision-)Blizzard ganz klar zu einer besseren GPU-Unterstützung von nVidia Produkten entschieden aufgrund des GPU-Marktanteils und mit nVidia als großem BlizzCon-Sponsor.

Die Annäherung im UHD/4K-Bereich von AMD/RTG an nVidia ist doch hauptsächlich durch eine Architektur-Annäherung seitens AMD/RTG mit RDNA1 hin zu nVidia zu erklären.

Vermutlich wird man bei Cyberpunk 2077 auch eine nVidia (Gameworks-ähnliche) Optimierung sehen, die den RTX-Sponsor für diesen Vorzeigetitel natürlich klar bevorteilen dürfte, was die Optimierung angeht (ähnlich wie bei der Hairworks-Implementierung des Witcher 3).

Ergo, ist der Entwickler oft der springende Punkt und wie (einseitig) dieser optimiert (ein gutes anderes Beispiel dafür ist das aktuelle Anno, welches relativ grottig auf AMD/RTG Karten läuft im Vergleich zu denen von nVidia) und nicht welcher Grafikchip von welchem Hersteller.

Ganz auffällig wird es dann, wenn plötzlich eine Karte der kleineren Leistungsklasse (bspw. Mittelklasse) die einer höheren Leistungsklasse (bspw. Oberklasse) des anderen GPU-Entwicklers zu vergleichender Generation in der Leistung überholt.

Dadurch lässt sich auch die hohe Volatilität in den Spieletests erklären, durch bessere oder schlechtere Spiele-Entwickleroptimierung auf einen Chip-Entwickler bzw. dessen Chupsrchitektur und nicht weil ein Chip/eine Chiparchitektur unbedingt so viel besser wäre als die andere in der gleichen Leistungs-/Preisklasse.
 
Zuletzt bearbeitet:
Zurück
Oben