Test Grafikkarten-Tests 2019: Neue Benchmarks und mehr Transparenz zum Navi-Start

immortuos schrieb:
Man sieht ja sogar beim 9900k hier, dass die 2080 Ti sich in 1080p nicht so weit von der 2080 absetzen kann, wie sie eigentlich müsste: --> vermutlich CPU Limit
Aha. Und du stellst deine Spiele immer so ein, dass sie im CPU Limit hängen und nicht im GPU Limit??? Der 9900k ist sicher immer schneller als der 2700X, egal ob CPU Limit, GPU Limit oder was auch immer?
 
Wenn die 499$ Navi Karte wirklich ne Ecke schneller als die RTX2070 sein soll, dann kann AMD die Radeon VII ja direkt wieder einstellen, wenn man die Benchmarks anschaut.
 
  • Gefällt mir
Reaktionen: Unnu
duskstalker schrieb:
black ops scheint übrigens einen fehler mit der radeon 7 zu produzieren - aber offensichtlich ist das egal, wird halt trotzdem in die wertung aufgenommen

Ist das ein Fehler im Spiel, Treiber oder wurden da Zahlen von der Redaktion falsch übernommen?
Kann mir doch keiner erzählen, dass das normal ist.
 
Wolfgang schrieb:
Ansonsten wäre das Diagramm total unübersichtlich. Davon hätte keiner was.

Sind die anderen Karten dann einblendbar aehnlich der Performancestatistik?

Wolfgang schrieb:
Anno 1800 ist in Deutschland möglicherweise derzeit das beliebteste AAA PC-Spiel. Das kann man einfach nicht rauslassen. Und nur weil ein Spiel merkwürdige Ergebnisse erzeugt (was Anno 1800 zweifelsohne tut, das sollte so eigentlich nicht sein), heißt das nicht, dass sich das nicht für Grafikkartentests eignet. Die Leute wollen trotzdem wissen, wie schnell das Spiel läuft. Komische Ergebnisse disqualifizieren kein Spiel. Sonst währen die interessanten und ungewöhnlichen Spiele ja automatisch alle draußen.

Sollte ein Test nicht nachvollziehbare Ergebnisse produzieren? Wenn komische Ergebnisse ein Spiel nicht disqualifizieren und nur Beliebtheit zaehlt, dann mindert das doch die Aussagekraft des Tests. Klar, fuer die, die es nur um das Spiel geht ist es interessant, aber um eine allgemeine Aussage uber die Leistungsfaehigkeit einer Grafikkarte sagt es weniger aus. Wenn es eher um ersteres geht, waere es dann nicht sinnvoller eine Umfrage zu machen welche Spiele aufgenommen werden sollen? Wobei dann wahrscheinlich auch einige alte Spiele dabei waeren, die aber immer noch beliebt sind.

Ah, eins noch. Wertet ihr auch die CPU Last aus bei den Tests? Ihr nutzt einen 9900k um das CPU Limit moeglichst auszuklammern, aber eine Auslastung koennte anderen Hinweise geben ob ihr Prozessor damit klarkommt oder nicht.
 
  • Gefällt mir
Reaktionen: danyundsahne, Chismon und Traumwandler 75
Erst einmal Danke für die Arbeit!

Für mich hat ein Performancerating eigentlich nur dann Sinn, wenn einige gut programmierte standard Engines vertreten sind, welche besonders die GPU auslasten und/oder welche in vielen Spielen vorkommen. Aber der workload sollte (im Spiel) durchgehend ähnlich bleiben. Sonst ist am Ende nicht die Engine entscheidend, sondern der gewählte Spielausschnitt. Und das macht die Sache subjektiv.

Bei Anno 1800 ist es sehr schwer eine Aussage zu treffen, mit der irgend ein Spieler eine vernünftige Entscheidung für die Zukunft seiner GPU oder seiner zukünftigen GPU machen kann, weil das Spiel innerhalb einer Partie den workload enorm richtung CPU verschiebt. Das stellt einen relativen Einzelfall dar und passt imo, nicht in ein allgemeines Performancerating.

Das bedeutet nicht, dass man es nicht testen sollte. Nur dass es viel differenzierter ist.

Mich würde auch freuen, wenn CB immer die Modelle der GPUs dazuschreiben würde. Mittlerweile wissen wir zwar ungefähr welche Modelle es sind, aber das alleine erklärt schon Unterschiede mit anderen Reviewern. CB nutzt, im Gegensatz zu vielen anderen, fast nur (oder gar nur?) Referenzmodelle, die sich Punkto Leistung, oft sehr stark von Partnermodellen unterscheiden. (Die aber die meisten Spieler kaufen).
 
Web-Schecki schrieb:
Weil man beim Vergleich von Grafikkarten den schnellsten verfügbaren Prozessor nehmen will, um dessen Einfluss zu verringern.
was zur Testzwecken richtig und wichtig, jedoch in den meisten fällen unrealistisch ist, da die wenigsten den stärksten Prozessor besitzen. Somit spiegeln viele Benchmarks einfach nicht die "Realität" wieder, sondern den optimalen Fall mit der stärksten HW Konfiguration.

Beispiel: Palit Geforce RTX2070 Game Rock Premium.
in vielen Reviewseiten wird ein 8700k oder gar ein 9900k mit 16GB DDR4 4000MHZ RAM verwendet und erreicht in Far Cry 5, ultra preset (ohne AA und motion blur), bei 1920 x 1080p, sage und schreibe 129fps durchschnitt.

Soweit so gut.
Aber ich habe nur "Mainstream" Hardware (i7 7700 und 16GB DDR4 2400MHz) mit der gleichen RTX2070 GPU. Benchmark Far Cry 5 mit den selben Settings und erreiche 96fps durschnitt. Viele haben nicht mal i7 8000 oder 9000er K Versionen, sondern eher moderate i7 oder gar i5
 
Roche schrieb:
Wenn die 499$ Navi Karte wirklich ne Ecke schneller als die RTX2070 sein soll, dann kann AMD die Radeon VII ja direkt wieder einstellen, wenn man die Benchmarks anschaut.

Was glaubst du wieso es (unter anderem) keine Partnerkarten von der Radeon VII gibt? Es ist und bleibt ein Lückenfüller, der nie langfristig auf dem Markt bleiben sollte.

Keine Partnerkarten, keine Lagerbestände, kein Problem wenn sie morgen eingestampft wird.
 
  • Gefällt mir
Reaktionen: Cpt.Willard und Coeckchen
Kacha schrieb:
Sollte ein Test nicht nachvollziehbare Ergebnisse produzieren?

Ein Test sollte in jedem Fall reproduzierbare Ergebnisse produzieren. Und das tut Anno 1800. Dann sollten die Ergebnisse natürlich nicht nur kurzfristig Gültigkeit haben. Dass ein Patch bei Anno 1800 etwas daran ändert, halten wir in Anbetracht der Historie aber für ausgeschlossen.

Doch auch deine Frage will ich grundsätzlich bejahen: Als Ing. verstehe ich gerne, was passiert. Es nicht zu tun, sehe ich in dem Fall aber nicht als K.o.-Kriterium.

Nur um noch einmal aus einer anderen Perspektive auf das Thema zu blicken: Spiele mit Vulkan verhalten sich im Vergleich zu allen anderen Titeln mit DirectX 11 auch komplett anders und sind in der absoluten Minderheit. Trotzdem ist auch so ein Titel im Parcours.
 
  • Gefällt mir
Reaktionen: Smartbomb, tomasvittek, LukS und 3 andere
@Beatmaster A.C.
genauso unrealistisch wäre es die Spiele künstlich in ein CPU-Limit rennen zu lassen, nur weil manche Spieler eine CPU X haben, die langsamer als Y ist.
Deshalb sollte man die CPU (so fern möglich) getrennt betrachten. Seine CPU muss man dann eben im jeweiligen CPU-Benchmark betrachten. Das jeweils langsame bestimmt die FPS.
 
  • Gefällt mir
Reaktionen: Cpt.Willard
Es geht halt eben nicht darum, irgendwelche FPS-Zusagen zu kriegen. Klar, ne RTX 2070 ist in fullHD und auch noch ohne AA schnell unterfordert. Mach halt AA an oder besser noch benutze Downsampling und dein Prozessor langweilt sich plötzlich.
 
Zuletzt bearbeitet:
duskstalker schrieb:


nur weil die leute gerne die performance von anno kennen wollen, heißt das nicht, dass das ein guter titel für euren parcours ist. ist er nämlich nicht. anno ist seit jeher einfaches amd-bombing. das ding in der wertung hilft keinem weiter.

Ich glaube, Du interpretierst hier zuviel rein: es geht hier doch nicht darum, bestimmte Karten gut oder schlecht dastehen zu lassen, sondern welche Karte in welchem Spiel wie gut ist. Mich persönlich interessiert sehr, wie eine Karte unter Anno abschneidet. Wenn sie dabei völlig abloost, dann will ich genau das wissen...

Warum wohl steht im PC-Kaufberatungsthread die Frage, welche Spiele gespielt werden sollen...?
 
  • Gefällt mir
Reaktionen: Cpt.Willard, Highskilled, tomasvittek und 4 andere
Wolfgang schrieb:
Ein Vulkan-Spiel ist doch drin. Davon abgesehen, findest du deine angeblich miserabel optimierten Spiele nicht etwas einseitig? Ich meine, dann könnte ich auch argumentieren, dass Dirt Rally 2.0 und Far Cry New Dawn miserabel optimiert sind, weil Nvidia-Grafikkarten da zu langsam sind. Du scheinst dagegen nur Spiele als miserabel optimiert anzusehen, wenn AMD zu langsam ist.
Ja stimmt, Rage 2 ist eines. Aber man hätte dennoch ein weiteres mit in den Benchmark aufnehmen dürfen. Ich finde zB, dass WWZ sehr beeindruckend demonstriert, wie man immense NPC Mengen darstellen kann, ohne dabei Performanceprobleme zu kriegen. Aber das wäre wohl ein AMD freundliches Spiel zu viel gewesen ;)

Und was ist denn bitte an Dirt 2.0 oder Far Cry miserabel? Läuft bei beiden Herstellern gut bis sehr gut, mit einem kleinen Vorteil für AMD. Schauen wir uns jetzt Hitman 2 an, 1080 schneller als VII, 2080 36% schneller als VII. Nicht gerade normal oder? Just Cause 4 ist sehr ähnlich was das angeht. Wenn man also nur 15 Spiele testet, dann muss bei der Spieleauswahl auf Sonderfälle wie Hitman 2 oder Just Cause 4 verzichtet werden, zumal diese weder technisch, noch optisch was reißen. Oder man verzichtet auf die Performanceratings.

Dass die VII in RE2 mit neuen Treibern deutlich langsamer geworden ist, glaube ich nicht.
RE2.jpg
Und was in COD BO4 passiert ist, ist schon sehr abenteuerlich.
COD4.jpg
Insgesamt ist das Ganze hier sehr Nvidia freundlich ausgelegt. Überrascht mich jedoch nicht so sehr, wenn ich mich an die Überschriften der letzten Grafikkartentests erinnere.
 
  • Gefällt mir
Reaktionen: Smartbomb, Acedia23, Freiheraus und 3 andere
zeedy schrieb:
Insgesamt ist das Ganze hier sehr Nvidia freundlich ausgelegt. Überrascht mich jedoch nicht so sehr, wenn ich mich an die Überschriften der letzten Grafikkartentests erinnere.
Weder deine "Beweisführung", noch dein Fazit noch deine Unterstellung überrascht wiederum nicht, wenn man deine Forenposts kennt. :rolleyes:

zeedy schrieb:
Und was ist denn bitte an Dirt 2.0 oder Far Cry miserabel? Läuft bei beiden Herstellern gut bis sehr gut,
Diese Aussage ist schon der hammer… ICh meine, blind oder so? Hier steht die Vega 2 auf einmal vor 1080 ti und sogar 2080, aber NEIN, das überrascht gar nicht, wo es die einzigen beiden Spiele sind, wo selbst der Vorsprung der 2080 Ti auf knappe 10% fällt (bei New Dawn). Das ist überhaupt nicht auffällig und NVidia schneidet hier nicht merklich schlechter ab als sonst. Genau! Da kann man doch echt nur noch mit dem kopf schütteln bei einer so massiven einseitigen Wahrnehmung.
 
  • Gefällt mir
Reaktionen: Loopman, DaniLt und KlaraElfer
Da steckt mal wider sehr viel Arbeit drinnen! Aber super gemacht und sehr detaliert dokumentiert weiter so :schluck:
 
Jan schrieb:
Ein Test sollte in jedem Fall reproduzierbare Ergebnisse produzieren. Und das tut Anno 1800. Dann sollten die Ergebnisse natürlich nicht nur kurzfristig Gültigkeit haben. Dass ein Patch bei Anno 1800 etwas daran ändert, halten wir in Anbetracht der Historie aber für ausgeschlossen.

Doch auch deine Frage will ich grundsätzlich bejahen: Als Ing. verstehe ich gerne, was passiert. Es nicht zu tun, sehe ich in dem Fall aber nicht als K.o.-Kriterium.

Nur um noch einmal aus einer anderen Perspektive auf das Thema zu blicken: Spiele mit Vulkan verhalten sich im Vergleich zu allen anderen Titeln mit DirectX 11 auch komplett anders und sind in der absoluten Minderheit. Trotzdem ist auch so ein Titel im Parcours.

Vielleicht gehe ich da etwas zu streng ran, da ich derzeit im wissenschaftlichen Bereich bin. Reproduzierbarkeit ist eine Sache, Erklaerbarheit die andere. Zumindest fuer mich sollte beides gegeben sein. Aber ich kann verstehen, dass man als Techseite nicht so streng sein kann und auch auf Viewer achten muss. Theoretisch waere dem ganzen mit einem groesseren Parkour geholfen, was halt wieder mehr Aufwand bedeutet.

Nilson schrieb:
@Beatmaster A.C.
genauso unrealistisch wäre es die Spiele künstlich in ein CPU-Limit rennen zu lassen, nur weil manche Spieler eine CPU X haben, die langsamer als Y ist.
Deshalb sollte man die CPU (so fern möglich) getrennt betrachten. Seine CPU muss man dann eben im jeweiligen CPU-Benchmark betrachten. Das jeweils langsame bestimmt die FPS.

Hier wuerde es Sinn machen die CPU Auslastung fuer jede Karte mit anzugeben. Dann koennen sich Leser ein Bild machen und es wird auch ersichtlich ob es starke Single-Core Leistung oder Multi-Core Leistung benoetigt.
 
  • Gefällt mir
Reaktionen: danyundsahne und Rockstar85
Chillaholic schrieb:
Ist das ein Fehler im Spiel, Treiber oder wurden da Zahlen von der Redaktion falsch übernommen?
Kann mir doch keiner erzählen, dass das normal ist.
Ich erinnere mich an den ominösen CPU Test, bei dem wurden auch merkwürdige Ergebnisse nicht angezweifelt, sondern einfach veröffentlicht, um 2,5 Wochen später doch auf die unzähligen Kommentare im Forum endlich einzugehen und die Ergebnisse zu korrigieren.
https://www.pcgameshardware.de/Ryze...omputerbase-revidiert-Benchmark-Test-1267223/
 
  • Gefällt mir
Reaktionen: Acedia23, Novasun und bad_sign
immortuos schrieb:
Auch das kann man nachlesen: Die genaue Testmethodik
Ergänzung ()


Man sieht doch auf den ersten Blick, dass die 2080 Ti in 1080p trotzdem durch die Plattform limitiert wird ;)
sifusanders schrieb:
Findest Du in der Testpacourbeschreibung. Dort sind Taktfrequenzräume angegeben.
Das muss neben die GPU oder zumindest direkt im Test. Sonst kommen so Sachen wie "Haha die GTX YZ ist total lahm", nur das die statt mit 1900+ MHz läuft nur mit 1650...
Außerdem varieren Taktraten stark von Game zu Game (weil meist Power oder Temp limitiert)
 
Sehr schön Pro Nvidia, Intel überarbeitet. Wie kommen bitte diese erheblichen Unterschiede zustande?

Hätte gerne eine Stellungnahme von CB dazu.
 
Kacha schrieb:
Reproduzierbarkeit ist eine Sache, Erklaerbarheit die andere. Zumindest fuer mich sollte beides gegeben sein.
Seit wnan ist das wissenschaftlich? Es gibt zig Phänomene, die reproduzierbar, aber nach Stand des Wissens noch nicht erklärbar sind. Es ist Ziel der Wissenschaft, Dinge erklärbar zu machen, dass Testergebnisse direkt erklärbar sein müssen, um wissenschaftlich zu sein, das ist eine Aussage, die andere Aussage von dir iurgendwie zwiefelhaft erscheinen lassen.

Ich muss grad an diese eine Werbung denken "Ich arbeite bei der Bank" sagte der Fensterputzer der den Banktower putzt auf die Frage, was er beruflich macht. XD
 
Zurück
Oben