Mmm, 17:00 Uhr Feierabend -> 17:15 daheim / Essen machen -> 17:30 essen -> ab 17:45 zocken bis ~23:00 Uhr sind 5h. Sind bei 44 Wochen (52 - 6W Urlaub - 2W krank) und nur 3 Tagen zocken schon 660h. Dazu kommen 44 Wochenenden, 6 Wochen Urlaub, 2 Wochen krank = 100 Tage. Wenn man von den 100 Tagen an 70 Tagen 6h zockt kommt man auf etwa 3h / Tag. Und man wird wohl nicht an weniger als 3 Tagen die Woche zocken und wenn man frei hat sind 70% auch wenig und auch die 6 Stunden sind schon niedrig geschätzt.
Schöne Rechnung...also mit 5h am Tag zocken und das 3Tage die Woche in der normalen Arbeitszeit...respekt du hast ne entspannte arbeit und ne gute Frau die dir den Rest abnimmt und dich beim zocken unterstützt !. Cool.
6 Wochen Urlaub bei denen du in der Regel 70% des Tages mit Zocken verbringst...auch nett. Bestimmt absolut im "normalfall" angesiedelt - macht das nicht jeder so ?
Nur um die Erinnerung aufzufrischen: Ich schrieb..."3h / Tag ist enorm. Ich sage nicht dass es nicht zu schaffen ist, aber sicherlich nicht der "norm" fall -selbst für hardcore viel zocker."
3h Am Tag im Jahresmittel schafft also nach deiner Beispiel rechnung nur jemand der total computersüchtig ist und nur vorm Bildschirm lebt und du vergisst IMMER noch dass eine GPU selten @100% läuft. Crysis 3 hat man dann auch irgendwann durch. Man schreibt auch emails in der Zeit und liest forum => alles nicht 100% LOAD ZEiten und damit schlecht für die Stromverbrauchsvergleich.
15 min heimweg von der Arbeit ist i.d.R. auch nicht der Normfall. Ich pendle an "guten" Tagen 60min....an schlechten auch mal 2h einfacher weg. Ich bin zwar sicher auch nicht der "normalfall" aber ich hab mal was von gelesen dass 30-40min Arbeitsweg durchaus den Durchschnitt darstellen - wohl gemerkt einfacher weg.
und 15min essen ist auch sportlich....vom Hygienezeiten mal abgesehn. Selbstverständlich hast du einen Zockersessel mit eingebautem Klo und Duschzelle mit Bildschirm und Maus/Tastatur um nicht ausversehen mit zocken aufhören zu müssen.
Außerdem zock ich meist in 3D.
Schön. Das ist auch bestimmt der "normalfall" der user... AFAIK sind gerade mal 0.001% der Gamer 3D Zocker. Selbst in 3D muss eine GPU weder auf 100% ausgelastet sein noch ist der "Verbrauch" von jedem Spiel gleich hoch => Also ist es immer noch bedenklich von dem bei Crysis 3 ermittelten Wert auf die Allgemeinheit zu schliessen. Viele Spiele brauchen ja eher weniger - das ist ja der Grund warum man gerade Crysis 3 nimmt um den "lastverbrauch" zu bestimmen. Nachdem man gemerkt hat dass Furmark eben nur unsinnige Ergebnisse weitab einer "Spielerealität" liefert.
Nur DAUs haben VSync aus. Ist aber auch egal, taktet deine GraKa runter wenn du VSync an hast? Solange sie mit vollem Takt läuft zieht sie volle Leistung. Selbst wenn du die Taktrate auf maximalem Takt fixierst und der PC im Idle ist zieht die GraKa vollen Strom.
NEIN. Es gibt einfache Messungen dazu dass das so nicht ist. Es hängt schon auch davon ab WAS die GPU macht oder ob sie nur idlet. Sieht man doch allein schon daran wie unterschiedliche Spiele Leistung ziehen

....deswegen ist es ja auch so "bedenklich" nur aus dem bei Crysis 3 gemessen Wert auf die tatsächlich verbrauchte mehr Leistung zu schätzen.
Wenn du bei irgendeinem Spiel nicht die GraKa voll auslastest hast du dein Einstellungen falsch gesetzt Außerdem zock ich meist in 3D.
Nächster punkt wo du wieder von dir ausnahmezocker auf die allgemeinheit der Spieler verallgemeinrst und noch dazu falsche Gerüchte rumkolportierst.
Es gibt Spiele da kriegst du die GPU nicht auf Last....nicht jedes Spiel ist Crysis 3 oder irgendeiner der anderen 5 millionen ego shooter clone...schonmal daran gedacht. Ältere shooter kriegst du die GPU auch nicht auf 100% Load mit VSync an...
Aber klar um den Stromverbrauch schlecht zu rechnen muss man schon mal Halflife 1 ohne V-Sync @500 FPS zocken 8h am tag....OMG lern mal nachzudenken bevor so einen unsinn schreibst.
Zumal nur durch AA und konsorten hochdrehen die GPU last auch nicht unbedingt ins unermessliche steigt.....Aber klar 16x SSAA mit 5760x768 auf nem 1280x768 Bildschirm macht schon sinn....man muss die GPU Last hochhalten damit man sich nicht in der Stromvergleichsrechnung verkalkuliert hat und das Pseudonegativ argument auch richtig gewichtet ist.
NUR DIESER STROM ist doch was eine R9 mehr braucht als eine GTX 780 oder nicht ?
Das stimmt solange wie du nicht in Euro umrechnest. Sobald es um Geld geht ist das einzig realistische, das was du nachher auch zahlst, oder? Trotzdem ist der Stromverbrauch eigentlich total egal meiner Meinung nach.
Das macht es auch nicht richtiger den GESAMTSystem verbrauch einzig auf die grafikkarte umzulegen und zu behaupte die R9 290X ist xx € teurer pro Jahr...
Ich kann die 290X ja evtl. auch 5-10% drosseln, habe dann weniger CPU last und damit auch weniger Netzteil overhead usw usf. und auch wieder weniger als deine verteidigten 49W stromverbrauch ???? Aber ist doch völlig egal ob du nun 13,95 €/Jahr oder 9,11 €/Jahr mehr hast...du vernachlässigst aber immer noch dass diese Zahlen nur enstehen unter der völlig absurden Annahme von 1095h VOLLLAST Betrieb. Das du so schön oben gezeigt hast was dazu erforderlich ist allein am ´faktor Lebenszeit als auch die weitere Bedingung erfordert NUR und aussschliesslich in dieser Zeit volllast Spiele zu zocken....exklusive all der Zeit wo selbst in diesen Spielen die GPU nicht @Max ist (z.B. Videosequenzen, Ladebildschirme, ....).
Merkst du eigentlich wie surreal deine ganze argumentationskette ist und das nur um durchzudrücken dass die R9 14€ statt vielleicht 9€ oder 5€ im JAHR mehr strom braucht ?!?
Aber von mir aus...dann rechne ich halt folgendes vielleicht verstehst du es dann:
R9 Quite mode: 107% Performance einer GTX 780
Preis: gleich ~ 505 € (siehe oben)
=> ne GTX 780 "kostet 7%" mehr als ne R9....7% von 505 € = 35,35 €. (Bei gleicher Leistung)
Ich hab also wenn ich die R9 kaufe leistungsbereinigt eine "Reserve" von 35,35€ die ich in MEHRSTROM umsetzen kann und komme am Ende noch gleich mit der GTX780 raus. Rein kostenmäßig. => selbst wenn ich deine unterstellten 13,95€/Jahr nehme kann ich ziemlich genau 2,5 JAHRE damit zocken und hab erst dann den kostenneutralpunkt erreicht ?
In 2,5 Jahren würde man eh ne neue GPU kaufen (müssen um auf dem GPU-Erlebnisniveau zu bleiben das du jetzt hast).
Jetzt hab ich leider schon selbst den Überblick verloren - bleibt dann noch eines der Argumente offen/unbeantwortet ?