XT oder XTX für WQHD?

Martinipi schrieb:
Und damit drückt am Ende deine CPU eben auch 15% mehr Leistung raus, also musst du zumindest auch den CPU Preis bei den 15% berücksichtigen ...

Das ist immer eine Mischkalkulation. Am Ende bekommst du aber eben durch dieses Upgrade 15% Mehrleistung und bezahlt 25% mehr. Das kann man isoliert betrachten.

Manchmal bekommt man gar keine Mehrleistung, weil man im CPU Limit schon steckt. Manchmal 25%, weil die Grafikkarte stark limitiert hat, manchmal 15%... irgendwas limitiert eben immer.
 
  • Gefällt mir
Reaktionen: Madcat69
Ayo34 schrieb:
Das ist immer eine Mischkalkulation. Am Ende bekommst du aber eben durch dieses Upgrade 15% Mehrleistung und bezahlt 25% mehr. Das kann man isoliert betrachten.

Okay, du redest von einer Mischkalkulation und brichst am Ende dann trotzdem alles auf eine Komponente runter ... macht keinen Sinn.
 
Du versteht es nicht und das ist okay. Die Mischkalkulation für zu einem Leistungsplus von durchschnittlich 15%. Diese 15% kann man isoliert betrachten für die GPU. Da muss du keine CPU mit einrechnen
 
  • Gefällt mir
Reaktionen: Madcat69
Ayo34 schrieb:
Und genau das ist die Frage, will man 25% mehr ausgeben für 15% mehr Leistung. Manche Ja, manche Nein. Und dann ist die Frage schon, ob man nicht nochmal 100€-150€ oben drauf legt und direkt zu einer 4080 greift.

Oder... Man greift im Umkehrschluss zum billigeren und nimmt eine 6950XT für 500 EUR. Das sind aber Fragen, die der TE für sich selber entscheiden muss.
 
  • Gefällt mir
Reaktionen: Pro_Bro und bart0rn
bart0rn schrieb:
Stimmt leider. Allerdings wird daran (zum Glück) gearbeitet. Die Leistungsaufnahme mit nur einem Display (144hz) konnte man in den Griff bekommen.

Bei zwei Displays ist die Lage (vorerst) noch unverändert. Aber zumindest wird etwas getan. Wenn man nicht gerade immer 2x 144hz Displays (gleichhzeitig) nutzt, dann spielt die Leistungsaufnahme meiner Meinung nach also keine größere Rolle (mehr) als bei Nvidia.

https://www.pcgameshardware.de/Rade...tware-Adrenalin-2371-Idle-Power-Test-1424012/
 
Nach der Tabelle ist aber schon bei einem Display 4k/144Hz der Verbrauch inakzeptabel. Bei zwei Displays auch nur, wenn man beide nicht über 60 Hz geht. Da braucht die XTX alleine soviel wie just in diesem
Moment mein ganzer PC.

Die Leistungsaufnahme ist das eine, die Mehrkosten durch Stromverbrauch muss man ja gegen den höheren Anschaffungspreis einer 4080 aufrechnen. Aber dauerhaft rund 50W mehr, die weggekühlt werden müssen im Vergleich zu einer nVidia-Lösung.
 
Ibachi schrieb:
Bei zwei Displays ist die Lage (vorerst) noch unverändert. Aber zumindest wird etwas getan. Wenn man nicht gerade immer 2x 144hz Displays (gleichhzeitig) nutzt, dann spielt die Leistungsaufnahme meiner Meinung nach also keine größere Rolle (mehr) als bei Nvidia.

nur wer wird im idle (non-gaming) seine high hertz monitore auf 60Hz stellen wollen?

ich für meinen teil hab auf meinem reinen 60Hz IPS nur noch discord und HWiNFO offen. weder spiel noch browser. weil sich das schwammig anfühlt gegenüber den beiden anderen IPS Monitoren 240 und 180Hz
 
Madcat69 schrieb:
Nach der Tabelle ist aber schon bei einem Display 4k/144Hz der Verbrauch inakzeptabel. Bei zwei Displays auch nur, wenn man beide nicht über 60 Hz geht. Da braucht die XTX alleine soviel wie just in diesem
Moment mein ganzer PC.

Die Leistungsaufnahme ist das eine, die Mehrkosten durch Stromverbrauch muss man ja gegen den höheren Anschaffungspreis einer 4080 aufrechnen. Aber dauerhaft rund 50W mehr, die weggekühlt werden müssen im Vergleich zu einer nVidia-Lösung.
Wieso sind 11 Watt nicht akzeptabel ? Das ist das was bei 144 hz /4k 1x Bildschirm angegeben ist.
 
Der TE hat 2x 144Hz.
Also was bringt dem TE die Diskussion über anderen Konstellationen.
 
Ich würde sagen, dass ist abhängig von deinem Budget. Beide Karten reichen für deine Ansprüche vollkommen aus. 😅
 
Ibachi schrieb:
Wieso sind 11 Watt nicht akzeptabel ? Das ist das was bei 144 hz /4k 1x Bildschirm angegeben ist.

Wir haben wir unterschiedliche Tabellen betrachtet. Ich ging von der Oberen aus und da sind es beim 22er Treiber 84 W und beim 23er sogar 94. Gerade gesehen, dass weiter unten eine mit einer Powercolor kommt mit anderen Werten. Bringt dem TE aber trotzdem nichts 😂
 
Zuletzt bearbeitet:
Vielen Dank für die ganzen Antworten.
Werde nochmal überlegen ob nicht doch die 4080. Die ist leider schon deutlich teurer.

Betrifft mich das Problem denn überhaupt mit WQHD?
Lese zwar Dual-Monitor aber da steht 4K.
 
Madcat69 schrieb:
Wir haben wir unterschiedliche Tabellen betrachtet. Ich ging von der Oberen aus und da sind es beim 22er Treiber 84 W und beim 23er sogar 94. Gerade gesehen, dass weiter unten eine mit einer Powercolor kommt mit anderen Werten. Bringt dem TE aber trotzdem nichts 😂
Tja ja immer erst den ganzen Artikel lesen ^^!!

Wieso bringt ihm das nix? Soweit ich das verstanden habe möchte er einen Bildschirm fürs Zocken und den anderen fürs TV gucken nutzen.
Das muss ja nicht unbedingt gleichzeitig stattfinden.
Außer man möchte sich beim Spielen hier und da beriseln lassen. Gut solls geben und auch völlig ok.

Ps. Ich bin kein Hardwareprofi, daher ist diese Frage ernstgemeint. Mein Einwand bezog sich nur auf die Vorstellung, dass der Stromverbrauch der Karten weiterhin so hoch bliebe.
Wie wir sehen hat sich das beim Gebrauch nur eines Bildschirms bereits relativiert.

Das mit zwei Bildschirmen wird auch noch kommen denke ich. Warum AMD das aber nicht sofort macht verstehe ich nicht (Nvidia wird hier und da ähnliche Enten schießen). Technisch scheint es da ja keine Probleme zu geben. Es lag/liegt scheinbar hauptsächlich an der Software.

TheTallTom schrieb:
Betrifft mich das Problem denn überhaupt mit WQHD?
Lese zwar Dual-Monitor aber da steht 4K.
Ich vermute, dass die Wattangaben in dem Fall schlicht etwas geringer ausfallen dürften. Jedoch immer noch höher als nötig. Zumindest vorerst noch (bei Benutzung von zwei Bildschirmen gleichzeitig).


Aber ganz ehrlich.... ich weiß nicht wie sinnvoll solch eine Stromdebatte immer ist. Es dürfte sich bei "Otto-Normal" um sehr geringfügige Strompreisunterschiede (aufs Jahr gerechnet) handeln.

Ich persönlich lasse meinen PC nicht 24 Std. am Tag an. Schlicht nicht sinnvoll (sparsame Graka hin oder her).

Wenn man dazu am Tag arbeitet (oder studiert, Schüler ist), hat man hier und da Abends, vllt. sogar wenns gut läuft maximal am Wochenende viel Zeit oder gar Lust auf ausgepägte Zockerrunden (6 Stunden oder mehr pro Tag).

Ich glaube ich konnte das letzte mal im Studium zu den Semesterferien auch in der Woche mal wieder mehr als 3 Stunden am Abend zocken.

Mit Frau und Familie reduziert sich diese Zeit (in der Woche) noch einmal deutlich. Dann mit Arbeit... joa zumindest in der Woche keine Chance oder gar Interesse.
Am Wochenende sieht es dann anders aus (je nach Möglichkeit).

Nun hat nicht jeder die gleiche Lebensgestaltung sowie Prioritäten. Jedoch glaube ich, dass meine Kaufentscheidung absolut nicht davon anhängig ist, ob eine Graka (bei derzeit noch zwei Bildschirmen gleichzeitig) mehr Strom verbraucht als Leistungstechnisch ähnliche Produkte anderer Hersteller.

Ich glaube bis ich mit einer 7900 xt/xtx so viel Strom verbraucht habe, dass es die (unsinnig) hohen Kosten einer Nvidia relativiert.... nun bis dahin stünde vermutlich schon wieder die nächste Karte ins Haus.

Das mag anders sein bei Leuten, die ihre Kiste (warum auch immer) Non-Stop 24/7 laufen lassen.

Aber gut kann mich auch irren ^^ !!
 
Danke für die ausführliche Antwort.

Ich hatte einfach mal 100Watt nachgeschaut bei meinen Zeiten.

Da kann man sich ja grob ausrechnen.
 

Anhänge

  • Screenshot_2023-07-28-05-31-54-300_com.android.chrome.jpg
    Screenshot_2023-07-28-05-31-54-300_com.android.chrome.jpg
    323,7 KB · Aufrufe: 87
Ibachi schrieb:
Ich glaube bis ich mit einer 7900 xt/xtx so viel Strom verbraucht habe, dass es die (unsinnig) hohen Kosten einer Nvidia relativiert.... nun bis dahin stünde vermutlich schon wieder die nächste Karte ins Haus.
Im Winter hat man da sogar den Vorteil das man die etwa 100 Watt Mehrverbrauch einer xtx zu einer 4080, zum heizen der Wohnung nutzen kann, die 100 Watt werden ja entsprechend auch als Abwärme aus dem Gehäuse geblasen, dann relativiert sich das noch etwas. Ok im Sommer natürlich blöd, aber jetzt mal nur für Winter betrachtet 😅

Finde den Einwurf mit der 6950 für 500,- echt gut, wenn man sparen will und trotzdem relativ viel Leistung will und nicht die höchsten Settings brauch beim zocken eine Super Alternative.
Die 7900xt ist ja Preis/Leistung auch noch irgendwo vertretbar, für 800,- , da gibt’s auch nicht wirklich Konkurrenz von NV.
Aber die XTX ist für den Mehrverbrauch bei gleicher Leistung zur 4080 und weniger Features (Reflex und FG gibt es garnicht, FSR2 unterliegt DLSS meist (mit NV kann man zur Not immer beides nutzen falls das andere doch mal besser aussieht) sowie immer wieder vorhandenen Treiber Problemen, siehe jetzt wieder Ratchet und Clank oder der ewige Mehrverbrauch und die Multimonitor Probleme einfach für das Geld kein guter Deal. Man muss da zur Verteidigung für AMD aber sagen das Treiber Team ist vermutlich nur ein Bruchteil von NV, da geht das halt nicht besser/schneller.
 
  • Gefällt mir
Reaktionen: Madcat69
TheTallTom schrieb:
Guter Support oder guter Service kostet nunmal.
Dein ernst?
Dann gab es den vor einigen Jahren wie es scheint noch nicht? Kann ich so nicht behaupten. Davon abgesehen, dass ich auch bei AMD nie Grund hatte zu klagen.

Also nein. Die derzeitigen Nvidia Preise sind schlicht rational nicht zu rechtfertigen.

Aber es ist wie es ist. Nvidia hat (scheinbar) eben andere Spaten, die eher im Focus liegen.

Pro_Bro schrieb:
Im Winter hat man da sogar den Vorteil das man die etwa 100 Watt Mehrverbrauch einer xtx zu einer 4080, zum heizen der Wohnung nutzen kann, die 100 Watt werden ja entsprechend auch als Abwärme aus dem Gehäuse geblasen, dann relativiert sich das noch etwas. Ok im Sommer natürlich blöd, aber jetzt mal nur für Winter betrachtet 😅

Finde den Einwurf mit der 6950 für 500,- echt gut, wenn man sparen will und trotzdem relativ viel Leistung will und nicht die höchsten Settings brauch beim zocken eine Super Alternative.
Die 7900xt ist ja Preis/Leistung auch noch irgendwo vertretbar, für 800,- , da gibt’s auch nicht wirklich Konkurrenz von NV.
Aber die XTX ist für den Mehrverbrauch bei gleicher Leistung zur 4080 und weniger Features (Reflex und FG gibt es garnicht, FSR2 unterliegt DLSS meist (mit NV kann man zur Not immer beides nutzen falls das andere doch mal besser aussieht) sowie immer wieder vorhandenen Treiber Problemen, siehe jetzt wieder Ratchet und Clank oder der ewige Mehrverbrauch und die Multimonitor Probleme einfach für das Geld kein guter Deal. Man muss da zur Verteidigung für AMD aber sagen das Treiber Team ist vermutlich nur ein Bruchteil von NV, da geht das halt nicht besser/schneller.
Tatsächlich habe ich das so mit meiner vorletzten Karte (AMD) gehandhabt xD.
Die Heizung blieb in meiner damaligen Einraumwohnung (Studizeit) im Winter zumeist aus ^^.

Da reichte das TV sehen am Abend (via pc), sowie das gelegentliche Zocken vollkommen aus ^^.

Aber gut, ich hätte dennoch darauf verzichten können ;).
 
Zuletzt bearbeitet:
Das hängt von Deinem Geldbeutel ab. Beide Karten haben ausreichend Leistung. ABER!

Überdenke bei zwei Monitoren die Wahl zur AMD Karte, vor Allem wenn Beide hohe Refreshraten haben und ggf. gleichzeitig betrieben werden sollen. Die Karte wird in beinahe allen Szenarios dann im Windowsbetrieb (Idle) nicht den VRAM runtertakten und somit einen sehr hohen Idle Strombedarf haben. Ich merke das nur an, da AMD diesen Treiberbug seit Oktober 2021 immer noch nicht behoben hat - tritt durchgängig durch die gesamte Modellpalette von AMD GPUs auf. Die 7900XT ist eine gute Karte - aber eben mit Schwächen in der B-Note, weswegen Du Alternativen zumindest in Betracht ziehen solltest. Denn es ist nicht abzusehen, dass AMD den VRAM Bug, wie man es nennen muss, beheben wird. Der wird seit zwei Jahren knapp meist wegignoriert.

Die Problematik dieses Teiberbugs sind bis zu 100 Watt Stromaufnahme im Idle respektive hohe Temperaturen der Karte was u.a. auch einen Zero Fan Modus ad absurdum führt. Die aktuellen Treiberrevisionen haben, entgegen der Darstellungen von AMD, nichts an der Situation geändert respektive nur in wenigen Einzelfällen.
 
Ist es denn so unüblich 2 Monitore zu betreiben?

Also ich spiele immer nur auf einem, auf dem anderen läuft dann YouTube oder nur der Desktopbetrieb

Und ja, dass mit Service meine ich ernst.
Amd bietet nicht so viele Features wie Nvidia.
DLSS ist auch einfach ausgereifter genau wie Updates bei den Treibern. Zumindest ist das meine Meinung.
 
Zurück
Oben