• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Eigene Benchmarks: Neuer AMD-Treiber beschleunigt CoD

Gut das ich mir normalerweise nur die Benchmarks angucke und nicht den Text lese der ist ja so Grün verfasst das geht ja gar nicht "Beide Top-Modelle von AMD legen um drei Prozent zu, sodass es die Radeon R9 290X schafft, gleichauf mit der GeForce GTX 970 zu ziehen" stimmt nicht die ist geringfügig schneller wäre das andersrum würde das bestimmt auch so dort stehen. Von dem restlichen Text reden ma besser gar nicht halt typisch Nvidiabase.
Abgesehen davon fehlt die Erwähnung das es sich um einen Nvidia Gameworks Titel handelt.
 
Zuletzt bearbeitet:
xxxx schrieb:
stimmt nicht die ist geringfügig schneller wäre das andersrum würde das bestimmt auch so dort stehen. Von dem restlichen Text reden ma besser gar nicht halt typisch Nvidiabase.
Sich einerseits über Objektivität beschweren, aber dann so rot gefärbte Kommentar schreiben, dass es dem Fass den Boden ausschlägt.

Der Unterschied von 0.4% ist so klein, dass er weggerundet wird. Da ist klar, dass CB den nicht erwähnt, schließlich liegt er offensichtlich unter der Messtoleranz.
 
Genau das ist es ja worum es geht...

Das gehört ins Diagramm - natürlich keine log-Skalierung das verfälscht nur, sondern metrisch
1. Typ, Takt, Hersteller, Chip,... (vollständig)
2. Treiber Rev.
3. Bonus von Rev 1 auf Rev 2 (für a und b falls verfügbar)

In den Text gehören die Rahmenbedingungen:
Welches Spiel/e, mit welcher Engine, Auflösung, Treibersettings, Detailgrad, Bildverbesserungen, ... alles OHNE WERTUNG

Dann ein Fazit aus 2 -3 Sätzen:
"Der Autor findet xy gut da z bewirkt wird, dass ist mehr als noch zuvor bei SDAS der Fall war."

Aber hier steht leider überall Meinung drin und daher ist das alles Flame Bullshit ohne Objektivität.
 
Entspannt euch mal. Ich bin ja wohl einer der größten Kritiker hier und habe in der Vergangenheit sehr oft bemängelt, dass die Artikel nicht gerade einwandfrei waren, was Objektivität betrifft, teilweise konnte man einfach lesen, dass der Autor Nvidia Karten bevorzugt. Aber ich stelle fest, dass die Kritik nicht ignoriert wird, und die Redaktion ganz offensichtlich darauf eingeht und versucht es besser zu machen.
 
zeedy schrieb:
@smilefaker Ich geh doch davon aus, dass die 290X im Uber Mode mit dem Standardtakt von 1 GHz läuft, sonst wären ja die Benchmarks nicht zu gebrauchen. Wer hat schon eine 290er, die nicht einmal ihren Standardtakt halten kann? Niemand.
Aber wie ich schon sagte, CB sollte einfach dem Beispiel von PCGH folgen und nur noch Custom Modelle benchen. Man sollte die beliebtesten Modelle der jeweiligen Grafikkarte nehmen, die mittelhoch getaktet sind, z.B. Sapphire 290er Tri-X oder Vapor-X 1040 MHz, MSI 780Ti 1085 MHz, Asus 970 1278 MHz usw. Dann gäbe es keine Diskussionen, wie realitätsferne Taktraten, Lautstärken, Temperaturen, Verbräuche...

@Bornemaschine wann hat denn AMD in einem Assassins Creed Spiel vorne gelegen? :lol: Stichwort Ubisoft + Nvidia ;)

Beste Antwort hier, CB tested leider falsch und die Kommentare enden nur in Bashing..
 
Also wenn die 290x im Übermode laufen würde, dürfte der Abstand zur Standard r9 290 größer sein.
Sicher läuft die 290x nicht im Übermodus.

Denn wie man im letzten Test sieht, liegt der Leistungsunterschied bei 13%.
Sollte die Karte im Übermodus laufen, wird sie wohl 7% langsamer sein wie eine GTX 980 Stock.

Smagjus schrieb:
Der Unterschied von 0.4% ist so klein, dass er weggerundet wird. Da ist klar, dass CB den nicht erwähnt, schließlich liegt er offensichtlich unter der Messtoleranz.

Sehe ich ebenso.
 
Zuletzt bearbeitet:
Bei Custom Karten siehts genauso aus, 290X ist kaum schneller als 290:
CoD_Advanced_Warfare_GPU_Benchmark_1080p_SMAA_2Tx_v1.1-pcgh.pngzwar mit dem alten Treiber gebencht, aber mit dem neuen werden ja beide 290er jeweils um 11% beschleunigt. Dürften also so schnell sein wie die 780Ti Phantom.

Wie ich schon auf der ersten Seite schrieb, siehts ganz so aus als gäbe es Spiele, die eben eher von hohem Takt als von hoher Shaderzahl profitieren, sonst wäre ja eine 290X nicht nur 2-3 fps schneller als das teildeaktivierte Modell.
Es scheint daher auch kein Zufall zu sein, dass die beiden 900er Maxwell Karten mit ihren deutlich höheren Taktraten entsprechend deutlich vorne sind.
Dass das bei sehr hoher Shaderlast ganz anders aussehen kann, sieht man ja zB in Ryse, oder nun auch in Dragon Age 3, wo eine Powercolor 290X selbst in DX11 so schnell ist wie die EVGA GTX980 Superclocked.

http://www.pcgameshardware.de/Dragon-Age-Inquisition-PC-236767/Specials/Technik-Test-1142136/
Btw, scheint ein Klasse Spiel zu sein mit herausragender Technik...hätte schon Bock drauf nur hab ich keine High End Grafikkarte ^^ frei mich übrigens auf den ausführlichen CB test.
 
Zuletzt bearbeitet:
Gegenbeispiele wie Ryse, oder nun Dragon Age Inquisition, zeigen da ein anderes Bild

Ich finds sehr interessant.
Ich auch, vor allem beim Dragon Age 2 Start war es schon ähnlich, die Thermis sind stark eingebrochen und die AMDs haben unbehelligt ihre Leistung entfalten. Bis zum Patch.
Ich frag mich echt ob die Zustände bei diesen Themen noch schlimmer werden können. Jedes Wort wird auf die Goldwaage gelegt und man muß beim Formulieren fast schon mehr aufpassen als bei Texten zum Islam dass man ja keinen Technik-Dschihad auslöst.
Du sagst es, die Korinthenkacker sind stark in dieser Community.
 
zeedy schrieb:
Wie ich schon auf der ersten Seite schrieb, siehts ganz so aus als gäbe es Spiele, die eben eher von hohem Takt als von hoher Shaderzahl profitieren, sonst wäre ja eine 290X nicht nur 2-3 fps schneller als das teildeaktivierte Modell.
Es scheint daher auch kein Zufall zu sein, dass die beiden 900er Maxwell Karten mit ihren deutlich höheren Taktraten entsprechend deutlich vorne sind.
Ah, die Erklärung ergibt Sinn. Ich hatte mich schon gewundert, weshalb die Maxwell Karten hier so weit vorne liegen.
 
Toll.. da jubelt man einem Spiel mit massivem Aufwand neue Shader unter, senkt die Bildqualität um ein paar FPS rauszukitzeln, und das ganze, statt seit Jahren notwendige Features zu implementieren bzw Fehler zu korrigieren - wie zB der irre Stromverbrauch im Dual Monitor Betrieb.
 
Zeig uns doch mal wo die Bildqualität gesenkt wurde, bevor du es behauptest.;)
Dualmonitorbetrieb ist mit zwei gleichen Monitoren ziemlich sparsam.
 
Zurück
Oben