Verbrauchsmessung Multimonitor

Knuddelbearli

Commodore
Registriert
Nov. 2009
Beiträge
4.484
Moin wurde sicher schon x mal angesprochen aber ein extra Thread dafür habe ich jetzt mal nicht gefunden also eröffne ich ihn mal ;-)
Intern wird, denke ich mal, eh gerade über das nächste Testsystem diskutiert.

Wie der Titel schons agt geht es mir um den Multimonitor Betrieb. Ihr messt da ja mit 2 genau gleichen Monitoren wodurch NV massiv bevorzugt wird da die nur dort ihr gutes Resultat erhalten. Sobald beide Monitore nicht 1:1 komplett gleich sind ( da geht es nicht nur um Auflösung und Hersteller sondern auch um interne Timings weshalb 2 zugleich gekaufte gleiche Monitore nicht immer im niedrigen Modus laufen ) dreht sich das Ergebniss ja massiv zu gunsten AMDs.

Am idealsten wäre natürlich wenn man beides misst und nen erklärenden Text dazu schreibt. Wenn nicht beides geht dann aber bitte mit 2 NICHT gleichen Monitoren messen, da das deutlich praxisnäher ist.

Erstens weill die meisten Leute zum besseren arbeiten mehrere Monitore benutzten. Der alte Monitor wird da zumeist behalten und ein 2ter wird dazu gekauft der dann natürlich nicht genau der gleiche sein wird.
Zweitens. Leute die Multimonitore zum zocken benutzten sind bei NV aktuell eh ein wenig die gelackmeierten da Surroundgaming / Eyefinity mit 2 Monitoren eher doof ist wegen dem Fadenkreuz und deshalb SLI nutzen.

Aus den 2 Gründen werden wohl 99% der Leute eher nicht das Resultat erreichen das ihr in eurem Benchmark misst.


Ansonsten bleibt noch zu sagen das eigentlich so oder so auch im aktuellen Benchmark ein erklärender Text dazu ( ähnlich wie bei HT4U ) eigentlich zur Pflicht gehört.
 
Was soll ich da sagen. Habe selbst 3 Monitore vor der Nase und kann da nur zustimmen. Exakt Baugleich findet man eher selten, z.B. bei Showsystemen oder Sonderfällen wie Neuein-/umsteigern.
 
Ihr lasst aber auch nicht locker ;)

Wie bereits mal erwähnt, haben wir geplant, in Zukunft beide Szenarien zu messen. Nur bitte ich um Verständnis, dass das mal nicht "eben so" geht. Das ganze nimmt mehr Zeit in Anspruch als man glaubt. Dementsprechend ist die Änderung fürs nächste Testsystem/Testparcours geplant, der aber noch etwas auf sich warten lassen wird.
 
naja zumindest ein Erkärungungtext beim aktuellen Test wäre schon löblich.
 
und mal wieder keinerlei Erwähnung dieses Umstandes *seufz*
 
Genau, ein einfacher Standard-Text so wie er in jedem Test auf bestimmten Seiten vorkommt, würde ja schon reichen und wäre mit wenig Aufwand möglich.

Aber dieser Sachverhalt wurde nur in einem Test dargelegt, nämlich bei der GTX 590 und wurde sonst immer verschwiegen. Bevor es möglich war, dass sich die Grafikkarte bei zwei gleichen Monitoren heruntertaktet, wurde es ohne weitere Erläuterung als Fehlfunktion beschrieben.
 
jetzt habt ihr zwar nen kleinen Satz dazuzugeschrieben ( der aber leider nicht wirklich was erklärt ) der aber falsch ist *seufz*

Im Zwei-Monitor-Betrieb stellen sich die AMD-Karten bei gleicher Auflösung und Bildwiederholfrequenz wie gewohnt hinter der Nvidia-Konkurrenz an

Bildwiederholfrequenz ist falsch. Es kommt auf die Internen Timings des Monitors an. 2 verschieden Monitore haben in locker 90% der Fälle unterschiedliche Timings. selbst bei Monitoren der selben Serie des selben Herstellers die man zugleich gekauft hat kann es manchmal vorkommen das intern die Timings nicht absolut identisch sind.

was passiert wenn die Timings eben nicht identisch sind sieht man hier:
http://ht4u.net/reviews/2012/amd_radeon_hd_7870_pitcairn_xt_im_test/index17.php

GTX 480 braucht dann mal eben 40-60W mehr also eine GCN Karte
Bei Absolut identischen Monitoren sind es dagegen knapp 10W mehr die AMD braucht ...
und darauf reitet ihr immer rum obwohl die meisten user eben nicht absolut identische Monitore haben.
Da wird der alte Monitor mal eben neben den neuen weiter in Betrieb gehalten oder der TV angeschlossen oder nach nem Jahr oder so ein 2ter Monitor dazu gekauft usw.

Ich versteh wirklich nicht wie man so resistent sein kann zumindest nen kleinen Absatz dazuzuschreiben wo es genauer ( richtig ) genauer erklärt wird.

Wenn ihr die 10 min nicht Zeit habt mache ich euch gerne einen Mustersatz ...
 
tja jetzt habt ihr es scheinbar passt der 680 die timings nicht mehr :p
 
Bei dem Test ist sowieso ein grober Fehler bei der Leistungsaufnahme unterlaufen.

Vor allem unter Last kann man diese jetzt nicht mehr nur mit einzelnen Spielen festhalten, sondern müsste die Leistungsaufnahme aller Spiele festhalten.
Weil wie man z.B. an der Leistungsaufnahme bei BF3 feststellen kann, ist der Verbrauch sogar höher als bei der HD 7970.
Daher müsste ebenso wie bei der Leistung auch bei der Leistungsaufnahme der Mittelwert errechnet werden.

Finde den Test an sich zwar gut und ausführlich, doch in Bezug auf den Stromverbrauch taugt er nichts.
 
Knuddelbearli schrieb:
tja jetzt habt ihr es scheinbar passt der 680 die timings nicht mehr :p
Schön, dass dich das so freut - Schadenfreude? ;)

Aber mal ehrlich. Das ist die erste Nvidia-Karte bei der es jetzt nicht funktioniert hat. Na und? Das kann durchaus ein Treiber-Bug sein, warten wir mal ab.

@Hibble
Das kannst du so nicht sagen. Die GTX 680 bleibt in BF3 im Verhältnis zur GTX 570 also genau gleich - sprich Fermi hat in BF3 auch schon auf der GTX 570 mehr gezogen als in anderen Spielen. Dafür ist in Anno 2070 die GTX 680 zum Beispiel noch besser im Verhältnis zur HD 7970 als in Crysis 2 - da ists dann genau anders herum. Der Turbo scheint da also weniger eine Rolel zu spielen in dem Fall.
 
Zuletzt bearbeitet:
ja ein bisschen schadenfreude ist da zurecht dabei da ihr es imemr noch nicht geschafft habt zumindest nen erklärenden text dazuzuschreiben, und euch jetzt wundert ^^
 
Aha...
Wir wundern uns nicht.
Und warum sollten wir einen erklärenden Text runterschreiben? Verestehe ich nicht.

Wir haben ergänzt, was wir da testen - was durchaus richtig so ist. Warum wir mehr machen sollen sehen wir nicht. Was das Problem der GTX 680 in dem Szenario ist, haben wir auch erwähnt. Das reicht wohl denke ich.
 
Weill das was ihr dort teste 90% der Leute nicht interessiert oder genauer gesagt sogar falsch informiert! Habe dir bereits ausführlich dargelegt wieso die meisten Benutzer eben nicht identische Monitore haben, und selbst bei denen die das haben sie deshalb noch lange nicht garantiert den niedrigen idle Verbrauch haben.
 
Das sagst du. Alleine in meinem Bekanntenkreis kenne ich genügend Leute, die zwei Monitore mit derselben Auflösung und Bildwiederholfrequenz betreiben - und das reicht meistens (wenn auch nicht immer) ja schon aus, um die Nvidia-Karten in den richtigen 2D-Modus schalten zu lassen. Du hast da definitiv eine sehr einseitige Ansicht.

Und wir informieren niemanden falsch, da wir das Testszenario ja beschreiben. Wir versprechen absolut nichts was die Nvidia-Karten nicht können.
 
Zurück
Oben