Test Fortnite, LOL, PUBG & Co.: High-End-Grafikkarten von AMD und Nvidia im Benchmark

Leidges thema, grakas mit 500€ + sind atm da bin ich atm nicht die zielgruppe
 
textract schrieb:
Aktuell laufe ich mit einem Ryzen 7 1700x @3,9 GHz, 2933 MHz G.Skill RAM und GTX 1060 6G mit FullHD und mittleren Grafikeinstellungen auf 150 - 200 FPS, ich wünschte es wären mehr.
Was versprichst du dir von noch mehr FPS?
 
manche mir ihrer FPS Jagd- bei 30 noch verständlich aber über 100 :freak:...

grundsätzlich an der Thematik und Leistung ändert sich ja nicht viel bzw. keine überraschenden Ergebnisse...
 
Jeder der intensiv CS spielt merkt einen Unterschied bei den FPS auch jenseitz der 100, mag sein das das auch LOL zutrifft.
 
Super :) hat bis jetzt wirklich gefehlt und finde ich klasse das ihr auch solche Spiele testet :schluck:
 
Ernüchternd wenn man danach die GPU Preise ansieht. Aktuell sitze ich auf eine GTX970 die zum Glück soweit noch ausreicht aber die für mich nächsten Modelle kosten aktuell weit über 600eur. Nach diesem Benchmark würde ich aktuell zu einer Vega greifen da sie in Pubg weit bessere Frametimes hat und ich das am meisten spiele.
 
Wenn ich diese Tests lese, freue ich mich über meine EVGA GTX 1080 SC, die ich Ende 2016 für 450,- € gebraucht geschossen haben.

@pgene Bei 100-150, ja gut, aber sorry, ob nun 150Hz oder 250Hz merkt, wenn man ehrlich ist, wirklich keiner mehr.
 
Chismon schrieb:
... ergo, ein ausbalancierter, fairer Spieletestparcours sieht ein wenig anders aus (dieser ist gespickt mit Titeln, die deutlich besser auf nVidia GPUs optimiert wurden von den Entwicklern) aber evt. hat man sich hier nur an Spielverkaufszahlen oder aktiven Spielern bei der Wahl der Spieletitel orientiert, mehr Glück/ein besseres Händchen beim nächsten Mal mit der Wahl der Spiele für den (hoffentlich dann neutraleren) Testparcours ;).

Aber dies hier soll doch gar kein Testparcours für Grafikkarten sein, sondern es wurden ganz bewusst diese Spiele ausgewählt.
Warum ist es sooo schlimm für viele hier, dass die NV-Karten hier bei diesen Spielen besser sind? Kratzt es an Eurem Ego, dass Ihr nicht die Nr.1 Karte habt oder warum kommt es immer wieder zu diesen unsachlichen Beißreflexen?
 
pgene schrieb:
Jeder der intensiv CS spielt merkt einen Unterschied bei den FPS auch jenseitz der 100, mag sein das das auch LOL zutrifft.

also du erklärst mir: wenn ich dich vor ein System setze und dich spielen lasse kannst du mir sagen ob es jetzt 100 oder 120 FPS sind :rolleyes:
wofür brauche ich da noch fraps...


gab glaub mal hier oder auf war es sonst eine Tech. Seite, einen netten Bericht zu den Thema was das Auge kann, interessant war die Aussage das man sich nicht mal sicher ist ob das Auge glaub bei 100 fps noch mitkommt...

http://www.pcgameshardware.de/Monit...-Fps-kann-das-menschliche-Auge-sehen-1219025/
 
Zuletzt bearbeitet: (Link)
schade kein FHD im rating, gibt genug die in FHD spielen... schon aus dem grund das UHD monitore die wide gamut(srgb + adobergb etc. tralala) 100% unterstützen schweineteuer sind, und auch ich darum erstmal bei meinem FHD bleibe, bis die preise erträglich sind für UHD die das ebenso können bei bezahlbaren kursen.
 
Achim_Anders schrieb:
Ich verstehe die Kritik sehr gut. Irgendwie bekommt man das Gefühl "Thema verfehlt"...

Die spieleauswahl wird damit begründet, dass sie mit Abstand am meisten gespielt werden. Dann werden aber settings einer absoluten Minderheit genutzt. 4k und WQHD machen wahrscheinlich nicht mal 1/4 der Spielerschaft aus. Dazu auch noch ultra Details? Das machen dann auch eher nur die Spieler, denen Frametimes und FPS egal sind.

Es wird mir nicht klar, wer die Zielgruppe sein soll. Und ich denke, man bat nicht die größte Zielgruppe mit diesem Setting erwischt...

Sehe ich auch so! Vor allem bei den aktuellen GPU Preisen (seit Monaten anhaltenden) schrumpft die Zielgruppe noch viel weiter!

Ich für meinen Teil...trotz 60HZ Flimmerkiste zocke in OW mind 150-300fps! Leider gibt es Momente, da habe ich heftige Frame drops auf 60 oder weniger - keine Ahnung wieso. Aber mit 60FPS spielt es sich wirklich anders!! Das gilt wahrscheinlich für viele der gezeigten online Games! - Auch in GTA merkt man es deutlich!
 
ach leute, ist das mal wieder n peinlicher thread.

1. titel vom benchmark ist "High-End-Grafikkarten von AMD und Nvidia im Benchmark".

wie bencht man grafikkarten? richtig - nicht im cpu limit - genau wie man cpus nicht im gpu limit bencht:

cpu limit witcher.PNG
https://www.computerbase.de/2017-01...t-overclocking/3/#diagramm-the-witcher-3-720p

damals hat es CB fertiggebracht mit einer GTX 980 sauber im GPU limit rumzubenchen. mit einer titan (x?Xp?XP? whatever) erreicht ein i7 fast das doppelte der fps in witcher wie ein i3, aber in CB war dank gpu limit der i3 "testsieger".

also, was passiert, wenn in "anspruchslosen" games mit komplett übertriebenen gpus 480p min details fährt?

CPU LIMIT - DING DING DING DING. herzlichen glückwunsch, so bencht man in einem gpu benchmark die cpu.


2. "die benchmarkauswahl ist biased."

richtig - aber da kann CB nix dafür - das sind eben die populären spiele.

pubg ist auf amd ne katastrophe, das liegt aber in erster linie an den entwicklern bzw. der engine (unreal engine). CS:GO und Dota fallen überraschend schlecht aus, aber bei den spielen lassen sich unterhalb von 4k relativ einfach 144fps erreichen - da ist eher die cpu der bottleneck.

wieso die cpu in LoL bei 142 fps limitieren soll, weiß ich nicht, da ich das spiel max details @wqhd mit einem R7 1700x (+ fury) auf 142 fps limitieren muss wegen meinem freesync monitor. ich würde mal schätzen der CB testrechner sollte hier noch ne schippe drauflegen. das ergebnis ist SEHR unstimmig.

fortnite ist wieder unreal engine und blizzard optimiert sowieso nur für intel+nvidia.

ausgerechnet das ubisoftspiel RB6 siege zieht hier für amd erfreulicherweise den karren etwas aus dem dreck.

die ergebnisse sind so wie sie da sind nicht "biased" - das ist einfach der einfluss von nvidia auf den spielemarkt. wäre amd marktführer, würde hier amd anführen.

daran ändern reduzierte settings auch nicht viel, wenn man damit nicht gameworksfeatures deaktivieren kann oder vega mit MSAA gequält wurde.


man kann insgesamt froh sein, dass amd wenigstens bei einigen modernen titeln noch gut mithalten kann, weils hier auch einige neutrale oder gar pro amd spiele gibt. aber an dieses bild, das hier gezeichnet wird, können wir uns für die zukunft schonmal gewöhnen - das wird dank den marktanteilen von nvidia (+gameworks, +GPP) nur zunehmen. ggf gibts in einem jahr nur noch grüne balken in den benchmarks.
 
Zuletzt bearbeitet:
Simpson474 schrieb:
Schön zu sehen, wie eine 4 Jahre alte Grafikkarte immer noch brav mit neuen Karten mithält, welche aktuell mehr Kosten wie die GTX 970 vor 4 Jahren bei der Einführung. Die fehlerhaften Angaben von nVidia haften der Karte wohl für immer an, aber der Chip war ein großer Wurf.
Da war die 290/390(X) aber der bessere Wurf ;)
 
@ComputerBase

Ihr solltet die FPS Einbrüche etc. an Nvidia melden, bei denen ist irgendwas gehörig Faul in deren Treiber - gibt einige Spiele wo die GTX Karten teils massiv einbrechen oder so kurze Stotterer haben.

Habt ihr mal CS GO Deathmatch gespielt? Da müsste doch alle paar Sekunden richtig die FPS einsacken und das Spiel immer wieder "kurze" Mikroruckler (bis 400ms) haben.
 
duskstalker schrieb:
pubg ist auf amd ne katastrophe, das liegt aber in erster linie an den entwicklern bzw. der engine (unreal engine).

Deswegen wird den meisten "PUBG Only" Spielern in den US Foren auch immer Vega nahegelegt wegen der deutlich besseren Frametimes in PUBG. Lustigerweise sind grade in PUBG die Vega Karten überaus stark unterwegs.
 
also manch user verstehe ich nicht 100+ fps für ein MOBA wie dota 2, wozu.....

oder spielen das die leute selbst garnicht und wollen sich wichtig machen, thema verfehlt Dota ist ein MOBA und kein Shooter
 
value schrieb:
Ja, das Input lag in ms unterscheidet sich massiv. Spiel mal CS mit 200 und mit 1000 FPS.

Bei 200fps reagiert das Bild in 5ms auf deine Eingaben, bei 1000fps in 1ms.

Du kannst mir nicht erzählen, dass du zwischen 1ms und 5ms unterscheiden kannst, wenn du die fps nicht kennst, zumal Monitore an sich schon eine Reaktionszeit von weit über 5ms haben, die Angaben auf dem Papier sind genau so informativ, wie die Sinusleistung bei Lautsprechern.
 
Zuletzt bearbeitet:
Waelder schrieb:
also du erklärst mir: wenn ich dich vor ein System setze und dich spielen lasse kannst du mir sagen ob es jetzt 100 oder 120 FPS sind :rolleyes:
wofür brauche ich da noch fraps...


gab glaub mal hier oder auf war es sonst eine Tech. Seite, einen netten Bericht zu den Thema was das Auge kann, interessant war die Aussage das man sich nicht mal sicher ist ob das Auge glaub bei 100 fps noch mitkommt...

http://www.pcgameshardware.de/Monit...-Fps-kann-das-menschliche-Auge-sehen-1219025/

Es geht nicht darum dass Du FPS "siehst", sondern darum dass ein normaler Monitor das Bild - und damit die Information - nur per frame erneuert. Sprich, in schnellen Spielen ist die Realität auf dem Server schon weiter während Dein Monitor ein "altes" Bild anzeigt. Bei DotA, LoL etc reagierst Du auf den Gegner wenn Du siehst dass eine bestimmte Animation einsetzt. Du hast online Latenz, Dein Rechner generiert Latenz, der Monitor wäre dann ein weiterer Punkt der dafür sorgt dass Du die Information "zu spät" erhältst. Für 99% der Spieler wird es keinen Unterschied machen - sie wollen dennoch die besten Voraussetzungen schaffen - aber für top Spieler hat das absolut Relevanz.

Kompetitive beat-em ups werden wegen so etwas teilweise ausschließlich auf CRTs gespielt, weil man die frames früh erkennen muss.
 
Klar, ich spiele alle Competitive Games mit höchsten Settings damit Sie so toll aussehen wie es geht, scheißt auf die FPS! :freak:
 
Ist halt schwierig zu testen. Einerseits will man nicht im CPU-Limit landen, andererseits spielt keiner die genannten Spiele in dieser Auflösung. Vielleicht wäre Downscaling eine Idee?
 
Zurück
Oben