Test Fortnite, LOL, PUBG & Co.: Mittelklasse-GPUs von AMD und Nvidia im Benchmark

Welche 1060 wird eigentlich getestet? die 3GB oder 6GB? Die unterscheiden sich ja nicht nur im Speicher.
Bei der 560 und 560D wird ja auch unterschieden. Sollte also auch die 1060 immer mit 3GB und 6GB Angabe, auch in den Diagrammen, klargestellt werden.
 
floh667 schrieb:
oder AMD optimierte SPiele in den testparcours mit aufnehmen, um das Gesamtergebnis etwas auszugleichen. Ich vermisse ein Wolfenstein 2, in dem eine rx580 mit einer 1070 gleich zieht.

Also ich habe keinen einzigen Benchmark gefunden, wo die rx580 in Wolfenstein mit einer 1070 gleichziehen kann! Hier auf CB schneidet die Rx580 im Benchmark zwar noch mit am besten ab, aber wirklich gleichziehen kann sie nicht, gerade bei steigenden Auflösungen und anspruchsvollen Szenen! Und das spiegelt sich in fast allen Tests wieder, die ich auf die schnelle Mal rausgesucht habe.

Irgendwelche stark optimierten spiele bringen halt Recht wenig, alleine weil es deutlich mehr Nvidia optimierte spiele gibt.

Ich finde man sollte halt eine breite Masse abbilden, aber auf besonders krasse Ausreißer verzichten. So wie früher Hawx, was einfach aufgrund unnötig stärker tesselation auf AMD / ATI Kragen sehr grottig lief.
 
Vindoriel schrieb:
Bei den getesteten Spielen ausdrücklich hinweisen, welche Spiele "neutral" (sprich Ergebnis passt zu den technischen Daten) oder einseitig optimiert sind oder proprietäre APIs (Gameworks!) enthalten.
floh667 schrieb:
oder AMD optimierte SPiele in den testparcours mit aufnehmen, um das Gesamtergebnis etwas auszugleichen. Ich vermisse ein Wolfenstein 2, in dem eine rx580 mit einer 1070 gleich zieht.
Warum das ganze Theater?
Wir haben hier eine (mmn. recht gut gewählte) Auswahl der aktuell meist gespielten Spiele abseits der typischen AAA-Titel, die ansonsten häufig in den Benchmarks auftauchen.
Wer eines, oder mehrere dieser Spiele spielen möchte kann mit den Benchmarks herausfinden wieviel Leitung die jeweiligen Karten bringen.

Für mich zählt die Leistung die tatsächlich ankommt ganz egal welcher Hersteller drauf steht.
Jetzt irgendwelche anderen Spiele (z.B. ein Wolfenstein, das sicher interessant, aber keinesfalls so relevant wie die genannten Titel ist) in die Benchmarks aufzunehmen nur um einen Hersteller besser da stehen zu lassen ist doch völlig Banane.
Genauso wird es die wenigsten interessieren welche Titel nun Gameworks oder AMD`s Konterpart nutzen, oder anderweitig seitens des Herstellers besonders gut für eine GPU-Marke optimiert sind.
-Als Spieler kann man daran ja eh nichts ändern. Wichtig ist wie gesagt eigentlich nur die Leistung.
 
WOT ENCORE auf mittel im Test, euer Ernst? Ich komme mit meinr rx470 8gb auf 2560*1080 ohne bewegungsunschärfe und max. kantenglättung auf min 60 fps
 
Da kann ich Xes nur zustimmen. Eine breite Auswahl an populären spielen bringt den Leser mehr, als irgendwelche Einseitig optimierte spiele oder auch spiele, die Schlucht ein Architektur der anderen vorziehen!
 
Hopsekäse schrieb:
Wenn sich NVidia z.B. mangels Konkurrenz im Gaming-Bereich entscheidet nächstes Jahr den G(T?)102 nur für professionelle Zwecke zu vermarkten und im Gaming-Bereich mit einem 104er auszukommen, dann ist der halt am dann aktuellen Markt High-End.

Marketingtechnisch ja. Hardwareseitig nein. Beispiel: Wird ein WV Golf 1.4 zu einem Supersportwagen wenn man ihn für 300.000€ verkauft? Nein wird er nicht.

Shoryuken94 schrieb:
Auch wenn es dir sauer aufstößt, aber diese Bezeichnungen sind reines Marketing und sagen genau nichts aus.

Doch natürlich. Ich weiß anhand der Bezeichnung und der Chipgröße ob mich Nvidia verarschen will und mir einen Performance-Chip (der viel günstiger in der Fertigung ist) als High-End andrehen will.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
Mich als Käufer juckt da eig. nicht die Bohne welche API / Effekte / GPU Marke eingesetzt werden, mich interessieren FPS und Spielbarkeit ero Frametimes.
Mich als Käufer juckt es schon zu wissen wie so die Verteilung der jeweiligen Pro/Contra games ist...dass du keinen Mehrwert aus mehr Informationen ziehen kannst oder willst ist deine Sache.

Und was sollte der Toleranzbereich bringen? Dann doch eher ein typisches Custom Modell aufnehmen - da liegen die Unterschiede schnell bei 10-15% zur Referenz Karte.

Der Toleranzbereich sagt dir "wieviel" Zufällige Schwankung in deiner Testreihe in etwa erwartet werden kann...Geht die Zahl der getesteten Spiele gegen unendlich würde man bei 2-Sigma Toleranzbereich erwarten dass 95% ALLER tests in diesem Fenster liegen.

Aufgrund von systematischen Bias kann das natürlich verschoben sein - aber der Toleranzbereich über die Messreihe zeigt einem zumindest wie "aussagekräftig" ein Vergleich von 2 GPU innerhalb der Testreihe ist oder ob er im Rahmen einer zufälligen Schwankung auch erklärt werden könnte.

Beispiel 1080 Ti hätte 100% +-5% bedeutet dass mit 2-sigma also in 95% aller Spiele ich mit einer 1080 Ti Leistung innerhalb des Bereichs 90-110 % rechnen kann.
Vega 64 hätte 90% +-10% würde aufzeigen dass in 95% aller Spiele ich im Bereich 70-110 % liege.

Ich sehe also (fast) sofort dass eine Vega 1.) deutlich Spiele-Abhängiger performed (größere Standardabweichung verursacht größeren Toleranzbereich als eine 1080 Ti.
Ich sehe sofort dass eine Vega64 durchaus mit einer 1080 Ti gleichzieht, aber eben auch DEUTLICH schlechter performen kann....

Ich Muss dann nur noch in die Einzelbenches nachsehen wenn mich interessiert in WELCHEM speziellen Fall die V64 hier so schlecht performed.

Anderes Beispiel. Ist der Toleranzbereich bei 2 GPUS über die Messreihe gleich, dann schwanken beide GPUs mehr oder wenige gleich stark...es ist also nicht davon auszugehen dass hier bei einer von beiden signifikante Ausreisser dabei sind. (Kann zwar dennoch passieren, aber wie wahrscheinlich ist es dass sich die Ausreisser auf beiden Seiten dann GENAU kompensieren).
 
floh667 schrieb:
dazu musst du aber dennoch glück haben, dass mal irgendwann irgendwie eine absichtliche Preissenkung stattfindet um den verkauf anzukurbeln, oder aus irgendwelchen Aktionen heraus. Zumal gerade die von dir genannte Karte lange Zeit noch unter 300€ lag.
https://geizhals.de/?phist=1479081
Aber mittlerweile kann man es auch vergessen auf der Lauer zu liegen. Die Preise sind so exorbitant gestiegen...

Genau das ist ja der springende Punkt. Ich wusste durch eben jene Preisverlaufskurve, ab wann es wirklich ein Schnäppchen wird, wobei ich damals von 279€ ausgehen musste. Preisalarm bei mydealz und Geizhals sind dann nur noch Formsache und wirklich kein Hexenwerk. Glück musste man beim Media Markt Angebot übrigens nicht haben, es lief den gesamten Aktionszeitraum über zwei Wochen. Da wurden tausende Grafikkarten (zu Recht) verkauft :). Wenn nicht hier zuschlagen, auf was wöllte man denn noch warten?
 
...steinigt mich, aber die Qualitätsunterschiede auf den Beispielbildern sind FÜR MICH so marginal, dass FÜR MICH feststeht, dass es eine mittlere oder niedrige Detailstufe auch tut.
Teure Nuancen.
 
man kann auch nicht alles in einem GPU Test abbilden.

Zb gerade das Thema Ref vs Custom, Api vs Api, Effekt vs Effekt, Treiber Version vs Treiber Version. Da gibts diverse Tests die sich besser eignen.

CB sollte aber ein gewisses Muster einhalten und dabei konsequent sein:

Test der Referez Karte (zb bei neuem GPU Release)
-> Testen mit aktuellem Treiber
-> möglichst große Gameauswahl & API(damit was für Nvidia und AMD fair dabei ist)
-> mit Frametimes und Zusatztests wie Tessellation, RT usw
-> Test im GPU Limit / CPU Limit
-> Basis für das Gesamtrating

Customs GPU Roundup zb Roundup GTX 580 Customs
-> wie Custom GPU kleinere Spiele Auswahl AAA Titel
-> selbes Testsystem, selbe Szenen wie in der Gesamtliste (ref Karten) -> leider oft vernachlässigt und dadurch kein Quervergleich möglich
-> hier wäre die Einordnung gut, also zB Custom 1070 in Relation zu Vega / GTX 1080 setzen.
-> OC vs OC Tests. Verbrauch. Effizienz (das ist teils unfair bei optimierten Ref Karten)

Treiber Tests
-> wie Custom GPU kleinere Spiele Auswahl AAA Titel
-> selbes Testsystem, selbe Szenen wie in der Gesamtliste (ref Karten)
-> entsprechend die Spiele im Gesamtrating auf die Leistung der neuen Treiber heben, für die getesteten Spiele (alle wäre zu aufwendig)

Spiele Tests
-> ggf Testen mit typischer Custom Karte (da realistischer als Ref)
-> neuer Treiber
-> selbes Testsystem, selbe Szenen wie in der Gesamtliste (ref Karten)
-> Detaillierte Frametimes im jeweiligen Titel
-> Zusatztests zu Effekten / API
-> hier kann man auch erwähnen ob das Game eher AMD oder eher Nvidia usw liegt.



Zum Zeitpunkt X ein Reset:
-> GPU Testfeld sinnvoll ausdünnen
-> neues CB TestSystem
-> Neuer Parcour
-> verbliebene GPU in allen Games mit aktuellen Treibern testen.

@Iscaran

Sowas wie AMD vs Nvidia interessiert aber den typischen Käufer nicht. Das Interessiert nur die die gern schwarz weiß malen oder bevorzugt rot / grün kaufen. Und so jemand kann man, wenn man ehrlich ist, nie nen Test recht machen... Man muss auch immer die Aufwände im Blick haben. Man kann nicht mit jedem Treiber und Game alles nachtesten...



Edit: CBs Art zu testen is nicht schlecht. Ich vermisse aber etwas die Konsequenz. Heißt man hat den Eindruck bei jedem Test werden wieder willkürlich andere Benchmark Szenen & Setting und und andere Customs genommen. Das schürt Verwirrung wenn sich dann zb wie in Doom die Ratings plötzlich massiv verändern. Manchmal hat man auch den Eindruck es wäre besser gewesen sich paar Tage mehr Zeit zu nehmen und was sauberes als Artikel zu bringen als irgend ein halbfertiger Mist ;)
 
Zuletzt bearbeitet:
Stev010881 schrieb:
Marketingtechnisch ja. Hardwareseitig nein. Beispiel: Wird ein Golf 1.6 zu einem Supersportwagen wenn man ihn für 300.000€ verkauft? Nein wird er nicht.

Wenn alle anderen Sportwagen dann schlechter/langsamer/what ever sind, dann ja.
 
Xes schrieb:
-Als Spieler kann man daran ja eh nichts ändern.
Weil das "dumme Konsumviech" auch nicht das Prinzip "Vote with your wallet" verstanden hat. Wegen man aufgrund dreckiger Geschäftspraktiken kein Intel und Nvidia kauft (OT: und Autos vom VW-Konzern*), kann man sehr wohl was dran ändern.
(Leider bei Nvidia zur Zeit recht schwer wegen Knappheit durch Mining und bei schnellen GPUs für Notebooks führt leider auch kein Weg an Nvidia vorbei)

*) Ganz aktuell: http://www.hr-fernsehen.de/sendunge...praemie-wertvolle-autos-verschrottet-100.html
 
Zuletzt bearbeitet:
Spannender als eine Standardabweichung des Mittelwertes über die Ergebnisse der verschiedenen Spiele, fände ich endlich mal ein eine Empirische Standardabweichung(1. oder 2. Def. is mir egal) über mehrerer Messunge je Spiel.

Ich hoffe doch stark, das CB nicht nur eine Messung je Spiel und Karte macht sondern zumindest 3-5 Messungen. Sonst kann man die Ergebnisse eh nicht gebrauchen.

Und über diese 3-5 Messungen würde eine Empirische Standardabweichung einen Eindruck vermitteln, wie zuverlässig die Messung ist.
Hat GPU1 60 +-0,9 FPS und GPU2 61,5 +-1,2FPS dann macht es eigentlich keinen Sinn zu sagen das GPU 2 wirklich besser ist. Es ist wahrscheinlich, dass sie leicht besser ist, aber genau kann man es nicht sagen.
 
Vindoriel schrieb:
Weil das "dumme Konsumviech" auch nicht das Prinzip "Vote with your wallet" verstanden hat.

aber sowas macht jeder für sich aus. Das ist nicht Aufgabe von CB das irgendwie (schon gar nicht im Produkttest) rauszuarbeiten und somit Partei zu ergreifen. Das passiert über News und die Firmen selbst, und eben über die Community hier in der Diskussion. Der eine kauft den kleineren Player auch wenn dieser 10% hinten liegt, der andere nicht.
 
Zuletzt bearbeitet:
Ich finde den Test ok.
Jemand der eine neue Grafikkarte für Fortnite will schaut eher bei nvidia.
Jemand der eine neue Grafikkarte für LoL will schaut eher bei AMD.
Jemand der alles vielleicht mal zocken will schaut aufs Gesamtrating.

Fragen für die Masse bzw. 0815 User ohne besondere Ansprüche werden doch ausreichend beantwortet.

Die typischen Fragen im Forum sind doch ich hab 150 Euro und will Spiel XY zocken, welche Grafikkarte soll ich nehmen...
 
Pisaro schrieb:
Wenn alle anderen Sportwagen dann schlechter/langsamer/what ever sind, dann ja.

Ich gebe es auf. Dann kauft eben kleine Performance-Chips zu High-End Preisen.
 
Man muss Fairerweise sagen, dass man als AMD Nutzer im Treiber die automatisierte Tesselations Einstellung niemals deaktivieren würde :D

Das ist doch ein total falsches Szenario, schließlich ist die Funktion ab Werk aktiv, damit einseitig optimierte Spiele nicht eine 64 Fache Tessellation anwenden um bei grün den Balken länger wirken zu lassen.

Schließlich war bei Mass Effect: Andromeda vor eine Jahr wieder schön zu sehen, dass zwischen 6x und 64x Tesselation genau nur ein Unterschied vorliegt, nämlich die FPS. Die Bildqualität war nahezu identisch.

Ergo sollte, das Feature nur dann deaktiviert werden, wenn wirklich ein optischer Nachteil im Spiel zu sehen ist und diese auf die angepasste Tessellation züruck zu führen ist.

Alles andere ist kein Test mit Standard Settings, diese Änderung im Treiber ist einfach Praxisfern und wird nur vorgenommen, wenn man zeigen will, wie schlecht AMD doch bei hohen Tessellations Werten abschneidet :p
 
Hopsekäse schrieb:
Erst so rumklugscheißen und auf der Bezeichnungen rumreiten, die nun in den letzten Jahren wirklich JEDER, inklusive der Hersteller so wählt, wie er gerade will, und dann aber so einen Schwachsinn vom Stapel lassen.
Ich stimme ja zu, dass High-End vom Namen her wirklich das obere Ende markieren muss.
Aber was du da verzapfst ist kompletter Murks.

Material einsetzt ist sowohl vom DIE als PCB einer 1070-1080GTX Ref unter einer GTX560 Ref...
Und Entwickelt wurde an Pascal auch nicht viel mehr, da es ein Maxwell Shrink und Refresh ist, die Architektur hat paar Features bekommen arbeitet aber genauso wie Maxwell, was an sich ok währe bei einem "normalen" Preis.
Aber irgendwie glauben zuviele Deppen, 30% mehr Leistung = 30% Höcherer Preis zur vor Gen sei normal.
Ich beziehe mich auf die UVPs, nicht der mining scheiß nun.

Aber auf der anderen Seite gibs auch keine Konkurrenz mehr, NV kann machen was sie wollen und die Grinche schlucken alles sowieso seid Kepler ohne zu mucken.:rolleyes:
 
Zuletzt bearbeitet von einem Moderator:
Stev010881 schrieb:
Marketingtechnisch ja. Hardwareseitig nein. Beispiel: Wird ein Golf 1.6 zu einem Supersportwagen wenn man ihn für 300.000€ verkauft? Nein wird er nicht.

Du verstehst das Beispiel einfach nicht. Es geht um die Konkurrenz und vergleichbare Leistungsdaten!

Ein GP104 konkurriert Leistungstechnisch mit AMDs Highend GPU. Wie viel Bit das Speicherinterface hat etc. Ist dabei egal. Es zählt nur die reine Leistung und die entsprechende Konkurrenz!

Denn eine 1080Ti ist wenn man es genau nimmt dann ja auch kein High end... Beschnittenen Chip, nur 384 Bit... Eine GTX 280 bot damals schon 512 Bit ^^

Andersrum, ist ein Ferrari 488 mit kleinem 3,9 Liter Turbomotor kein Sportwagen? Oder ist ein LKW mit 15 Liter V8 ein Sportwagen? Du siehst, die Leistungsdaten sagen erst Mal wenig aus, es kommt auf die Positionierung im Markt an.

Und wenn Nvidia morgen die GPU Namen komplett ändert ist ja auch nichts anders. Sie können den GP102 auch Thomas nennen und es ändert sich nichts.
 
@aivazi

Sowas kann man gern detailliert und kreativ im Text zum Game durchleuchten finde ich. Das darf gern Tiefgang haben, gerade wenn zb sowas oder auch HBCC einen großen Einfluss haben. Was sind die Performance Killer im jeweiligen Game. Gibt es ein Setting dass zb Frametimes komplett versemmelt?

Im GesamtRating selbst jedoch kann ich nicht einfach 2 paar Schuhe einstellen, also quasi optimiert je Hersteller. Da muss ich zb 4K Doom auch Nightmare nehmen, und sei es dass es einem von beiden nicht schmeckt.
 
Zurück
Oben