Test Fortnite, LOL, PUBG & Co.: Mittelklasse-GPUs von AMD und Nvidia im Benchmark

@Iscaran

Dass die meisten Games Nvidia Optimiert sind is angesichts des Marktanteil und dem was Nvidia gegenüber den Publishern supproten und promoten kann doch nur normal. Es kann auch kaum richtig sein dem Parcours über irgendwelche Games die keiner spielt neutralisieren zu wollen. Sinn würde es da noch eher machen die beliebtesten Stream Games für die Auswahl herzunehmen.
Ergänzung ()

Flare schrieb:
Eine CPU bis allerhöchstens 180,-€ wäre hier deutlich praxisnaher.

Das wäre in einem generellen GPU Test Schwachsinn. Das muss bis hoch in 3000 Euro GPU skalieren. Die CPU kann nicht schnell genug sein. Spezial Tests zu "nötiger CPU Power" sieht man Test zum jeweiligen Spiel.
 
GPUs mit einer langsamen CPU testen zu wollen ist Unsinn. Außerdem:

Und zu guter Letzt wird es noch einen Test geben, der sich nicht mit den Grafikkarten, sondern mit der Prozessorleistung beschäftigt.
(stammt aus dem ersten Teil der Serie)
 
Stev010881 schrieb:
Stell dir vor AMD wäre insolvent und Nvidia hätte eine 100% Monopolstellung. Dann gäbe es trotzdem noch low, midrange und high-end.

Absolut falsch! Dann gäbe es nur noch HIGH END!
 
Dass die meisten Games Nvidia Optimiert sind is angesichts des Marktanteil und dem was Nvidia gegenüber den Publishern supproten und promoten kann doch nur normal.
Ja und...macht es einen Artikel schlechter wenn man diesen Fakt öffentlich macht ?

Es kann auch kaum richtig sein dem Parcours über irgendwelche Games die keiner spielt neutralisieren zu wollen. Sinn würde es da noch eher machen die beliebtesten Stream Games für die Auswahl herzunehmen.

Habe ich das verlangt ? Ich wollte lediglich dass man es dem Leser transparenter darlegt, was wie wo wer Einfluss hat.

Die Toleranzbereichsbestimmung ist ein EINFACHES Maß das hier helfen kann.

Auch was BaalNetbeck vorschlägt ist gut...wenn man in den Einzelgames die "Standarabweichungen" aus den Messungen sehen würde.

Jegliches MEHR an Information ist gut für den interessierten Leser...es kommt halt noch ein wenig darauf an dass man nicht ALLES in 1 Diagramm packt.
 
Die 1050ti steht gut da. Wundert mich nicht. Nur der Preis ist für die Karte auch schon zu hoch.


Wolfgang

Ihr testet die AMD Karten mit keiner verringerten Tessleration? Also was man im Menü einstellen kann. Wenn es so ist, wie würden den diese und die High END Karten abschneiden?
Würdest du das mal testen (max. x6)? Wäre echt gut. Denn ich würde bei AMD Karten die Tess- Stufe auf max. 6 einstellen.
 
Traurig wie schlecht optimiert einige Spiele sind... ja ich meine dich PUBG. GTA 5 läuft im Schnitt deutlich besser als PUBG und das bei einem extremem Grafik unterschied. Selbst Fortnite sind in der Regel besser aus und bietet fast 20-30% mehr Performance.
 
Die Preise sind einfach schrecklich. Ich hoffe inständig, dass da irgendeine Lösung gefunden wird und bspw. zukünftige Generationen fürs mining gelocked werden. Ansonsten stirbt das PC gaming bald komplett aus.
 
Xedo schrieb:
Die Preise sind einfach schrecklich. Ich hoffe inständig, dass da irgendeine Lösung gefunden wird und bspw. zukünftige Generationen fürs mining gelocked werden. Ansonsten stirbt das PC gaming bald komplett aus.

Jap.
Für den Preis einer Low-Midrange Karte bekam man letztes mal zum Superbowl eine PS4 Pro mit 1TB. (299€ meine ich wären es gewesen).
 
trane87 schrieb:
Traurig wie schlecht optimiert einige Spiele sind... ja ich meine dich PUBG. GTA 5 läuft im Schnitt deutlich besser als PUBG und das bei einem extremem Grafik unterschied. Selbst Fortnite sind in der Regel besser aus und bietet fast 20-30% mehr Performance.

PUBG ist das absolute Negativbeispiel für das Jahr 2018. Ich habe keine Ahnung, warum ein Spiel derart schlecht optimiert ist, obwohl es schon so lange gespielt wird (wenn auch lange Zeit in der unfertigen Version) - und dabei gar nicht mal so gut aussieht. Das war dann auch u.a. ein Grund, warum es bei mir persönlich gegen Fortnite "verloren" hat. Fortnite: Battle Royale spiele ich seitdem die Server on sind und da kann man echt nur staunen, was man da rausgeholt hat und wie super es aktuell performt. Auch bzgl. Nvidia haben die Treiber Updates immer für einen anständigen Leistungsschub gesorgt. Dabei ist das Spiel noch nicht einmal in einer Version 1.0 erschienen wie PUBG.
 
Fortnite ist seit min. 7 Jahren in der Entwicklung. EPIC ist selbst Entwickler der Engine.

PUBG ist seit knapp 2 Jahren in Entwicklung und musste die UE4 von Epic lizensieren und selbst erweitern, da die Engine für solch große Karten gar nicht ausgelegt ist. Zudem ist bei Fortnite die Karte deutlich kleiner, optisch ist es Comic-Stil (den man durchaus mögen kann), aber das Spiel ist ganz anders ausgelegt und ist daher kaum vergleichbar mit PUBG.

PUBG ist, wie Arma, mehr als Military-Simulator gedacht und hat deutlich größere Karten. Fortnite geht mehr in die Richtung einfacher Shooter, außer bei den Gewehren/Scharfschützen Waffen gibt es kein Bulletdrop was vom Server berechnet werden muss.

Es ist lustig das Fortnite, obwohl es auf ihrer eigenen Engine basiert für die Performance gelobt wird, dabei waren die ersten Tage im BR nicht besonders gut spielbar selbst auf Highend-Kisten.

Fortnite krankt es momentan vor allem am unglaublich schlechten Bullet-Bloom, dies sollte eindeutig Priorität Nr. 1 sein.

Aber ich bin mir ziemlich sicher das beide Spiele ihre Wege gehen.
 
Zuletzt bearbeitet:
Pure Existenz schrieb:
Absolut falsch! Dann gäbe es nur noch HIGH END!

Nope. Absolut falsch ist deine Aussage.

Was soll Nvidia denn mit all den Chips machen, die die Spezifikationen des High End chips nicht erfüllen? In Gulli werfen? Klo runterspülen?
Das wird, wie es auch seit zig Jahren der Fall ist, beschnitten und als kleiner Chip verkauft.^^
So wäre der Profit um ein vielfaches höher, als wenn es nur high end gäbe.
 
Vielleicht hätte man bei den Benches auch mal mit bedenken können das es die 1060 als 3GB sowie als 6gb variante gibt und das mal mit in's Diagramm mit auflisten können...


Gruss HL
 
"Wie bei den teuren Karten: Nvidia schneidet besser als AMD ab"

Damit ist doch alles gesagt.
 
Iscaran schrieb:
Tja sieht wohl so aus als ob die ganzen High und Max Presets hier eben schon deutlich für 4GB sprechen.

Im Alten Test waren ja 4GB 550 vs 2GB 1030
Hier sind jetzt BEIDE mit 2GB unterwegs.

=> die 550 mit 4GB ist bis zu 20% schneller als das 2GB modell (gleiches dürfte auch so für eine 4GB 1030 gelten btw.)

Wie man sieht ist die Zeit der 2GB Karten so langsam vorbei.

Dann müssten ja auch RX 560D und GTX 1050 mit ihren 2GB mies abschneiden. Tun sie aber nicht.
Btw. gibt es doch gar keine 4GB 1030.
 
Schön, dass Lol jetzt mit drin ist:).
Zu dem Thema Tesselation.......Ich bin zwar eher negativ gegenüber Nvidia eingestellt, gerade wenn man sich anguckt, mit welchen Mafia Methoden Nvidia den Firmen die ihre Grafikkarten bauen, kürzlich deren lange aufgebaute Markennahmen klaut.

Aber trotzdem bin ich hin und her gerissen, was das aktivieren oder deaktivieren der Tesselationsbegrenzung bei AMD Karten geht.

Es ist unfair, wenn AMD Karten weniger genau an diese Effekte herangehen, auch wenn ich im Selbsttest bei The Witcher 3 keinen optischen Unterschied bemerken konnte.

Auf der anderen Seite kann man argumentieren, dass es eine sinnvolle Funktion ist, die keine optischen Nachteile hat aber mehr Leistung bringt.

Ich kann CB verstehen, würde aber niemanem raten die AMD optimierung abzuschalten.
Was meint ihr dazu?
 
Baal Netbeck schrieb:
Ich kann CB verstehen, würde aber niemanem raten die AMD optimierung abzuschalten.
Was meint ihr dazu?

Für gewöhnlich wird immer alles @Stock getestet, entsprechend ist das realste Szenario, dass der DAU einfach nur den Treiber installiert und die Karte verwendet ohne je in den Radeon Settings etwas zu verändern.

Natürlich ist das dezent unfair, aber ein Hinweis dass, die Tesselation reduziert ist und eventuell in einigen Spielen optische Nachteile bieten könnte, wäre wesentlich realer gewesen, als die AMD Karten mit nachteiligen Tessellations Einstellungen zu betreiben, das würde kein Nutzer bei klarem Verstand machen
 
Ich kann es verstehen, wenn zum "fairen" testen sowas deaktiviert wird.

Allerdings sind das die Stock Treibereinstellungen ( also werden wohl sogut wie alle User, bis auf paar Ausnahmen, mit diesen Settings auch spielen - demnach ist das eher realistisch) und es verhindert im Grunde ja nur, dass ein mit Tessellation verseuchtes Spiel unnötig Performance klaut, weil der Faktor schlicht unnötig hoch ist
Z.B wenn ein Entwickler mit Nvidia zusammenarbeitet und diese etwas "nachgeholfen" haben.
 
Zurück
Oben