Test The Division Benchmark: Zu viel GPU-Leistung gibt es für diese Engine nicht

Jaja - Träum weiter Krautmaster.
http://forum.golem.de/kommentare/se...n/cpus-altern/96068,4301855,4304301,read.html

Gilt in noch viel stärkerem Maße für "hochgezüchtete" Monster wie GPUs.
Nur leider testet das keiner oder sprichts an. Für die Hersteller ist es ja gold wert wenn die leute eh lieber ne neue Karte kaufen weil die alte abgebrannt ist :-).

Klar passiert das nicht mit jeder Karte...aber halt eben statistisch schon...nur dumm wenn man dann 500€ ausgegeben hat und einem die Karte um die Ohren fliegt nach einem Jahr.

Die Hersteller verkaufen die Hardware ja deswegen mit bestimmten Taktraten und Spannungen von denen sie sicher wissen das die Karten das mind. die Gewährleistungs bzw. garantiezeit schaffen (zumindest zu 99%). Manche glaube halt die Hersteller würfeln die werte einfach nur aus.
 
Eine weitere Engine, wo AMD ins CPU Limit läuft. Unter DX12, oder auch Mantle, sollte bei den Topmodellen von AMD noch einiges rauszuholen sein.
 
Würde die Testreihen anpassen.

Ich finde es falsch, wenn man schon verschiedene Qualitätseinstellungen Testet, bei FullHD nur auf "Ultra" zu setzen... wer FullHD spielt (also auch ohne Downsampling und Co.) ist wohl kaum noch als "Enthusiast" zu sehen, der alles "ULTRA!!!!" haben will. Erst recht falsch ist es bei 4K auf die hier doch schon deutlich sichtbar schlechteres "Mittel" zu setzen, bevor das einer macht schraubt er doch die Auflösung runter.
 
Iscaran schrieb:
Jaja - Träum weiter Krautmaster.
http://forum.golem.de/kommentare/se...n/cpus-altern/96068,4301855,4304301,read.html

Gilt in noch viel stärkerem Maße für "hochgezüchtete" Monster wie GPUs.
Nur leider testet das keiner oder sprichts an. Für die Hersteller ist es ja gold wert wenn die leute eh lieber ne neue Karte kaufen weil die alte abgebrannt ist :-).

Klar passiert das nicht mit jeder Karte...aber halt eben statistisch schon...nur dumm wenn man dann 500€ ausgegeben hat und einem die Karte um die Ohren fliegt nach einem Jahr.

Die Hersteller verkaufen die Hardware ja deswegen mit bestimmten Taktraten und Spannungen von denen sie sicher wissen das die Karten das mind. die Gewährleistungs bzw. garantiezeit schaffen (zumindest zu 99%). Manche glaube halt die Hersteller würfeln die werte einfach nur aus.

Prinzipiell gebe ich dir Recht.
Aber ich habe hier bestimmt 6 oder 7 GPUs, die ausgepackt, eingebaut und sofort übertaktet wurden und auch heute noch ihren Dienst verrichten. Das fängt bei einer X1950 an und geht bis zur GTX570. Ich denke, dass hier vor allem die Art und Weise des Übertaktens eine große Rolle spielt.
Nichts desto trotz finde ich es richtig von CB, dass nur das Werks-OC getestet wird. Alle anderen OC-Werte beinhalten wohl immer eine Portion Glück.
 
Also HBAO+ ist geil.

Aber bei den Schatten denke ich mir immer: Hauptsache keine Fransen, und wenn's geht nicht komplett hart.
Dieses PCSS hat sich imo noch nie wirklich gelohnt. Mag zwar realistischer sein, bringt irgendwie nicht so den Mehrwert.
 
EadZ1 schrieb:
Prinzipiell gebe ich dir Recht.
Nichts desto trotz finde ich es richtig von CB, dass nur das Werks-OC getestet wird. Alle anderen OC-Werte beinhalten wohl immer eine Portion Glück.

Genau so ist es. Denn nur Werks-OC kauft man - der Rest ist Lotto.

Ich hab bislang alle meine GPUs im leben genau so lange gehabt wie sie hardwaretechnisch gehalten haben - bis auf die X1950 Pro. Die ging dann für 40€ bei Ebay weg als ich nach was stärkerem gesucht habe. Und meine Voodoo 3 3500 ging irgendwann in den Müll.

Der Rest "starb" irgendwann oder verursachte mehr oder weniger reproduzierbare zufallsfehler im Betrieb nach 2-6 Jahren.

Lebensdauer der Karten war im Schnitt 3-4 Jahre.

Testreihe besteht aus 7 Karten. Betrieb NUR stock.
 
@ Iscaran
Grafikkarten werden seit 20 Jahren übertaktet und von großartig auftretenden Schäden oder schnellerer Alterung ist nirgendwo etwas zu lesen. Zumindest bei einer maßvollen Übertaktung ohne übermäßige Spannungserhöhung. Von daher bitte den Ball flach halten, was solche Aussagen angeht.

@ CB
Danke für die Werks OC Karten im Test. Zumindest bei Nvidia lässt sich da bei den aktuellen Karten noch einiges rausholen.
 
ottoman schrieb:
@ Iscaran
Grafikkarten werden seit 20 Jahren übertaktet und von großartig auftretenden Schäden oder schnellerer Alterung ist nirgendwo etwas zu lesen. Zumindest bei einer maßvollen Übertaktung ohne übermäßige Spannungserhöhung. Von daher bitte den Ball flach halten, was solche Aussagen angeht.

Ich bin ja auch nicht derjenige der behauptet das man JEDE 980 Ti dauerhaft und ohne Schäden 30, 40, 50% oder mehr OC kann...
 
Bei dem was man so liest, sind 30% (im Vergleich zu Stock) doch recht üblich, ohne groß an der Spannung drehen zu müssen. Wenn die Temperaturen noch im Rahmen sind, sehe ich da jedenfalls kein Problem. Oder wird in irgendwelchen OC Foren von überdurchschnittlich vielen defekten 980 Ti Karten berichtet? Sogar mit Wasserkühlung und dementsprechend viel Spannung+OC gibt es anscheinend keine Probleme. Dabei ist die Karte ja nun auch schon eine Weile auf dem Markt.
 
Zuletzt bearbeitet:
Auf "Gamersyde" gibt's ein Video, wo dieselbe Szene gezeigt wird wie die in der anfänglichen E3-Demo.

Da kann man ganz gut erkennen, dass die Grafikqualität tatsächlich ziemlich gut gehalten wurde - die Autos sehen vielleicht nicht mehr ganz so detailiert aus, weil sie wohl um ein paar Polys reduziert wurden und auch der Rauch ist nicht mehr ganz so volumetrisch, aber sonst - Chappeau !

Von daher war das ganze Theater im Vorfeld um einen vermeintlichen "Downgrade" im Nachhinein nicht angebracht...
 
Iscaran schrieb:
Jaja - Träum weiter Krautmaster.
http://forum.golem.de/kommentare/se...n/cpus-altern/96068,4301855,4304301,read.html

Gilt in noch viel stärkerem Maße für "hochgezüchtete" Monster wie GPUs.



zwar OT aber ich geh dennoch mal drauf ein.

Der Vergleich und die Quelle selbst ist ja wohl der Quatsch schlechthin. GPU sind keine hochgezüchteten Monster, im Gegenteil, es sind große Chips die aber bei kleinem Takt und vergleichsweise geringer Spannung betrieben werden (der Effizienz wegen, nicht wegen Alterung). Genau deswegen ist die rein chipinterne Alterung (die restlichen Komponenten mal außen vor) eigentlich sehr zurückhaltend, bzw müsste es sein.

Schau doch einfach auf welche Spannung der TSMC 28nm bei GPU gefahren wird. <1,2V meines Wissens bei der TI ohne Spannungserhöhung (mit max 1,28V). AMD gibt bei der Fury mit höherer Density (Leckströme) sind es ebenfalls ~1,2V, fährt ja aber auch nen kleinen Takt.

Bei der R9 390X sind es wohl um die 1,25V - alter die deswegen schneller? Das sind alles Spannungen die dem Chip nichts antun, nur explodiert die Leistungsaufnahme ab gewisser Spannung und die Chips werden heiß, wodurch sie noch mehr leitend werden usw. Solange die Temperatur aber im Rahmen ist und die Chip Spannung nicht gerade bei 1,4V + liegt sehe ich da kein Problem.

Die Frage is eher welcher Defekt denn auf den eigentlich Chip rückzuführen ist. Ich denk meisten verreckt irgendwas anderes, gerade dann wenn man die Karten jenseits der doppelten Leistungsaufnahme betreibt.
Man sieht ja zB. auch gut wie die Leistungsaufnahme aber mit DX12 bei AMD nochmal steigen wird da die GPU durch AS und co besser ausgelastet wird. Und auch das muss sie wegstecken ohne über den Jordan zu gehen =)

Iscaran schrieb:
Genau so ist es. Denn nur Werks-OC kauft man - der Rest ist Lotto.

Und was Werks OC angeht... naja, wenn ich mir ne Karte kaufe, EVGA Stock, und da mit ihrem Tool in Software das Powerlimit um 25% angehoben werden kann, genauso wie der Basis Takt... dann kann ich ohne Spannungserhöhung usw nicht wirklich was falsch machen. In meinen Augen ist das Werks OC, also auch das OC was CB im Test getestet hat. 20% würde ich als Garantie sehen, 25% als guter Schnitt und 30% sind eher Lotto wenn man kein Bios flashed.

Von 40 und 50% hab ich nicht geredet, ich sagte ja schon das die ~1450Mhz (die bei der TI eig immer mit Standardtools ohne Eingriff gehn) die etwa 25% bringen, mal 20, mal 30%. 1550Mhz reißt aber zb kaum eine, auch nicht mit 1,3V +, da ist weniger mehr.

Aber BTT:

Ich finde die Unterschiede zwischen Mittel und Ultra sind wirklich recht gering. Geringer als erwartet. Was etwas suckt ist das always online.
Die Schneetextur hat Battlefront etwas besser hinbekommen, da fehlt noch etwas Funkeln.
 
Zuletzt bearbeitet:
Ravenwest schrieb:
In kleinen Schritten geht die Qualität der Tests bei euch voran. Freut mich!
Wenn sie jetzt nur noch die Taktraten mit dazu schreiben würden ... :rolleyes:

EadZ1 schrieb:
Ich muss ehrlicherweise gestehen, dass ich diese Benchmarks nicht nachvollziehen kann. Oder besser gesagt: Ich finde die Spiele an der Realität vorbei "gebencht". Was schaffen GTX600 / GTX700 bzw. GCN1.0 / 1.1 in FHD mit reduzierten Details? Es ist schon verständlich, dass nicht jede halbwegs spieletaugliche Hardwarekonstellation getestet werden kann. Aber ausschließlich Einstellungen zu verwenden, die bis auf 2 Ausnahmen nur aktuelle Hardware voraussetzen, wird zwar den Großteil der Kommentatoren freuen, allerdings wohl nicht die meisten Leser.
Dem kann ich nur zustimmen.
 
hm naja, sind jetzt schon 22 GPU a 3 Testreihen für die Auflösungen. Dazu die anderen Tests.

Wenn es darum geht noch ein Setting für die älterne GPU reinzunehmen kann das CB vllt bewerkstelligen, zb FHD Mittel oder Low.
 
blutrausch schrieb:
kann man wenigstens die chromatische aberration ausschalten? der effekt macht in diesem spiel überhaupt keinen sinn.

Ja oder? Genau das habe ich mir auch so gedacht, wo ich die Hoch, Mittel, Niedrig screens durchgesehen habe. Bei niedrig sah alles so scharf aus ^^

Das ist das schöne bei Crysis, dort kann man vieles sehr granular einstellen.
http://www.tweakguides.com/Crysis3_14.html
 
Ich habe eine 980ti Treiber von gestern also neu aber kein hbao plus oder weiche Schatten im grafik menü . Es ist nur hoch oder sehr hoch auszuwählen bei schatten oder ambient ..warum?
 
Ist zwar OT aber bei The Division kann man auf verschiedenen Plattformen das Spiel Kaufen und Downloaden.

Steam, Origin und Uplay. Aber man braucht trotzdem ein Uplay Account. Da ich alle 3 Plattformen (insgesamt 5 wenn ich man Epic und Blizzard dazu zähle) habe, welche hat gewiesse Vorteile?
 
zeedy schrieb:
Für 1080p kauft kein normaler Mensch eine Fury X oder 980 TI. In 1440p ist das aber sicher eine andere Geschichte, daher finde ich, sollten Benchmarks komplett auf Gameworks Effekte verzichten.
Und was sind das für Einstellungen, in denen die beiden Karten 63 fps haben?

Wer einen Monitor in 1440p hat bzw. sich so einen kauft, gibt sowieso etwas mehr aus, dann sind es vl auch noch 120Hz+ was ja nachvollziehbar ist und dann kostet der Monitor schon ein bisschen! Wer da dann bei der GPU spart und keine Fury oder 980/Ti nimmt ist absolut selbst schuld.. :)
Wenn man schon Geld ausgibt...

Das Spiel sieht wirklich sehr schick aus aber das ganze läuft dann wieder über U-Play auch über Steam oder?
Vielleicht wird es im nächsten Steam Sale ja getestet :)
 
Ich muss mir die Tests mal durchlesen.
Bei Steam gibt es alles in allem nur "Ausgeglichen" bzw. ein Durchnittlich, was wohl seinen Grund haben muss.

Für Einzelspieler wird das wohl eher nichts sein?
Eine Art Battlefield-Mehrspieler mit neuem Szenario und den Einzelspielermodus wohl eher als Tutorial?
 
Multiple monitor support: Tom Clancy’s The Division supports multiple monitors, and you can configure your setup under the user interface section of the settings menu. For best results, it is recommended you use these options in conjunction with your video card’s Surround (Nvidia™) or Eyefinity™(AMD™) support.

Yeah. :)

Echt schade das mich das Spiel nach anfänglicher Vorfreude nur noch am Rande interessiert. :(
 
Thrawn. schrieb:
Du solltest dir den Abschnitt des Tests mit den mal wieder sehr unrunden Framtimes und Stoppern bei AMD Karten weil AMD mal wieder den DX treiber mies geproggt hat genauer durchlesen..

Hab den Abschnitt im Gegensatz zu Dir gelesen.
Bei der Konstellation mit zwei Kernen muss man aber aufpassen: Denn während die Framerate bei vollen Details nicht zu stark abfällt, hakt das Spiel des öfteren, was störend ist. In dem Fall kommt vermutlich der DirectX-11-Treiber von AMD nicht hinter dem von Nvidia hinterher.

Ich denke das Elend dürfte sich in Grenzen halten, soviele Leute werden nun keinen i3 mit einer Fury X betreiben. Das mit dem Stottern bei der Fury war bei Tomb Raider auch so, wurde aber mit dem folgenden Treiberupdate behoben.

Leider bleibts dann aber halt doch nur ein durchschnittliches Spiel und dazu von Ubisoft, von daher werde ich das zumindest nicht anrühren.
 
Zuletzt bearbeitet:
Zurück
Oben