Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Gaming-Grafikkarten: Welche GPU habt ihr verbaut und was darf die verbrauchen?
Die Umfrage kommt ja ziemlich unpassend bei mir. Aktuell ist eine GeForce 2060 verbaut, die aber auch erst dieses Jahr, genau genommen gestern, Einzug gehalten hat. Aktuell bin ich in einer Leere zwischen alte Karte verkauft und Warten auf bessere Preise.
Was die 2060 verbraucht? Ja, genau, tut sie. Was sie verbrauchen darf? Ja, schönes Wetter heute. ^^
Im Endeffekt interessiert mich nicht groß, was eine Karte beim Zocken braucht. Mittlerweile zocke ich doch weniger und dann darf es eben auch gut aussehen und/oder hohe Frames erreichen. Viel wichtiger ist mir der Idle-Verbrauch. Trotzdem habe ich natürlich bei meiner alten Karte geguckt, was ich mittels UV / Powerlimit erreichen kann und das werde ich auch bei der neuen Karte testen.
Man muss ja nicht unnütz Strom verschwenden und Wärme generieren.
Was die 2060 verbraucht? Ja, genau, tut sie. Was sie verbrauchen darf? Ja, schönes Wetter heute. ^^
Im Endeffekt interessiert mich nicht groß, was eine Karte beim Zocken braucht. Mittlerweile zocke ich doch weniger und dann darf es eben auch gut aussehen und/oder hohe Frames erreichen. Viel wichtiger ist mir der Idle-Verbrauch. Trotzdem habe ich natürlich bei meiner alten Karte geguckt, was ich mittels UV / Powerlimit erreichen kann und das werde ich auch bei der neuen Karte testen.
Man muss ja nicht unnütz Strom verschwenden und Wärme generieren.
Tzk
Commodore
- Registriert
- Nov. 2016
- Beiträge
- 4.651
Ich bin wohl in der absoluten Minderheit mit meiner alten 1060 6gb und dem Anspruch von <150W wegen Effizienz, Lautstärke und Platzbedarfs in ITX Gehäusen…
Der Trend zu immer höherem Verbrauch gefällt mir nicht, auch wenn die Effizienz durchaus passt.
Der Trend zu immer höherem Verbrauch gefällt mir nicht, auch wenn die Effizienz durchaus passt.
Riegelstriegel schrieb:Ich bin erstaunt, dass so viele Leser sich eine RTX 4080 gekauft haben, weil die damals doch mit das schlechteste Verhältnis von FPS pro Euro bot.
Ich weiß es so gut, weil ich selber eine habe. Grund für mich war, dass es unter der 4080 nur Speicherkrüppel mit weniger als 16 GB gab und darüber nur -zwar dann wieder mit besserem Preis-Leistungs-Verhältnis- die 4090 mit für mich zu extremer Leistungsaufnahme. (Ja ich weiß, manche kaufen sie sich trotzdem und drosseln sie dann.)
Machen würden nVidia da Taktik vorwerfen, dass sie schwächere Modelle bewusst unattraktiv gestalten um die teueren Varianten besser zu verkaufen.
Dass die 4080 so viel schlechter ist als die 4090, wurde in Foren etc. halt auch immer etwas übertrieben anhand der technischen Daten, aber in der Praxis ist die 4090 selbst in 4k unter Raytracing im CB-Performancerating nur 33% schneller, in WQHD (womit ich meist spiele) sogar nur 24%. Beim mMn wichtigeren Perzentil-FPS-Rating sind dann oft noch mal ein paar % weniger Unterschied.
Ich wollte Ende 2022 tatsächlich eigentlich eine 4090 kaufen, aber der Preisunterschied war damals eben mehr als 33% (und somit das P/L-Verhältnis der 4080 eben nicht schlechter) und im Nachhinein habe ich es auch nicht bereut, stattdessen zur 4080 zu greifen, weil die 4090 dann doch etwas overkill für mich gewesen wäre und die Leistungsaufnahme auch nicht zu unterschätzen ist - nicht bloß wegen Kosten, sondern wegen der Wärmeentwicklung im Sommer, die schon bei der 4080 heftig ist.
So was wie die 4070 Ti Super gab es damals natürlich noch nicht und die alten Karten waren mMn nicht mehr attraktiv.
syfsyn
Admiral
- Registriert
- Nov. 2010
- Beiträge
- 8.902
erst Kürzlich Aufgerüstet
rtx3060 170w oft zwischen 150-160w auf rtx4070 200w oft zwischen 150-190w dank cpu limit
Rtx3060 vs rtx4070 1080p
+120% fps mit neuer cpu die brachte +45%
Die größte Sprünge gab es mit dxr ziel erfüllt aber erst nachdem ich die cpu Nachgerüstet habe
rtx3060 170w oft zwischen 150-160w auf rtx4070 200w oft zwischen 150-190w dank cpu limit
Rtx3060 vs rtx4070 1080p
+120% fps mit neuer cpu die brachte +45%
Die größte Sprünge gab es mit dxr ziel erfüllt aber erst nachdem ich die cpu Nachgerüstet habe
D
DerMicha
Gast
Da ich nicht mehr so viel zocke und nur bei 1080P zocke und schaue, habe ich mir im November, eine 4060 für 269,00 Euro gekauft.Auch, da Sie laut Datenblatt sich wohl nur 115 Watt nimmt.
Hab die RX5700 aus meiner aktuellen Signatur so ziemlich seit Release im System.
Wäre vermutlich noch immer bei meiner ebenfalls großartigen 1070FTW, welche ich an einen Kumpel verkauft habe, aber ich hatte damals einfach keine Lust mehr, mich mit den GeForce-Treibern unter einem rollenden Linux zu ärgern.
Hab die Karte mit LACT auf 82W gegängelt, weniger war unmöglich einzustellen (in früheren Versionen gingen auch 75W) und mehr brauche ich auch weder bei bei Cyberpunk 2077, noch in HellDivers 2, oder in VR Spielen, was ohnehin so die Sperrspitze an dem ist, was ich aktuell spiele.
Wenn ich hin und wieder mit Sprachmodellen experimentiere, schalte ich die schon mal auf 120W hoch, aber selbst da zieht sie das quasi nie.
Über 200W sollte sich keine Grafikkarte genehmigen dürfen.
Wäre vermutlich noch immer bei meiner ebenfalls großartigen 1070FTW, welche ich an einen Kumpel verkauft habe, aber ich hatte damals einfach keine Lust mehr, mich mit den GeForce-Treibern unter einem rollenden Linux zu ärgern.
Hab die Karte mit LACT auf 82W gegängelt, weniger war unmöglich einzustellen (in früheren Versionen gingen auch 75W) und mehr brauche ich auch weder bei bei Cyberpunk 2077, noch in HellDivers 2, oder in VR Spielen, was ohnehin so die Sperrspitze an dem ist, was ich aktuell spiele.
Wenn ich hin und wieder mit Sprachmodellen experimentiere, schalte ich die schon mal auf 120W hoch, aber selbst da zieht sie das quasi nie.
Über 200W sollte sich keine Grafikkarte genehmigen dürfen.
Im normalen PC zum Arbeiten hab ich eine nVidia 1030, da die CPU Grafik etwas zu schwach war. Im Gaming PC werkelt eine 3070 TI. Wollte hier eigentlich auf eine 5070 TI Super gehen, warte aber noch, bis es safe ist mit den Karten und die Preise im normalen Bereich landen.
tdbr
Lieutenant
- Registriert
- Nov. 2023
- Beiträge
- 792
Beim Spielen komme ich auf einen gesamt Verbrauch von 300-350W inklusive 20-80W (42") Monitor und 20W von 4 HDDs die nicht schlafen. Idle 100W, Monitor schläft. Die zweite GPU ausbauen bringt auch noch mal 5-15W weniger. Idle mit USB controller passthrough ist 120W.
x670e, 2x nvme mirror,4x 18tb hdd, 7950x3d, 96g, gtx1080+rx570 8g.
x670e, 2x nvme mirror,4x 18tb hdd, 7950x3d, 96g, gtx1080+rx570 8g.
Zuletzt bearbeitet:
- Registriert
- Dez. 2020
- Beiträge
- 2.074
Gesamtverbrauch des PCs an der Steckdose bestenfalls unter 300W, maximal 500W.
Ich habe deswegen meine letzten 2 Grafikkarten (4090/5080) auf maximal ~300-360W eingestellt.
Bei der 5080 betreibe ich OC, damit sie näher an die 4090 rankommt, aber das Powerlimit oder die Spannung sind nicht erhöht.
Ich hoffe, das ab der nächste Generation der Verbrauch nach unten geschraubt wird.
Wenn ich z.b. meine 5080 um 450Mhz hochtakten kann ohne das die mehr verbraucht, dann bin ich ja auch näher am Sweetspot.
Wenn ich aber die Spannung senke und weniger verbrauche, dafür die Karte aber langsamer ist, kann das auch ein Sweetspot sein.
Ich habe deswegen meine letzten 2 Grafikkarten (4090/5080) auf maximal ~300-360W eingestellt.
Bei der 5080 betreibe ich OC, damit sie näher an die 4090 rankommt, aber das Powerlimit oder die Spannung sind nicht erhöht.
Ich hoffe, das ab der nächste Generation der Verbrauch nach unten geschraubt wird.
Ist immer schwierig zu definieren.GokuSS4 schrieb:Sweetspot > alles
Wenn ich z.b. meine 5080 um 450Mhz hochtakten kann ohne das die mehr verbraucht, dann bin ich ja auch näher am Sweetspot.
Wenn ich aber die Spannung senke und weniger verbrauche, dafür die Karte aber langsamer ist, kann das auch ein Sweetspot sein.
- Registriert
- März 2017
- Beiträge
- 1.824
7900xtx vor zwei Jahren im Sommer für 950€ gekauft.
Powertarget auf -5% und undervoltet. In den meisten spielen läuft eh vsync o.ä. soll heißen die 400w zieht sie seltenst, reall meist so um die ~300-350w.
Rückblickend war die Karte viiiiiel zu teuer für mich aber war damals best price.
Verbrauch, ist halt so ne Sache... Da muss man schon im Treiber hand Anlegen, ich meine wenn man der Karte das maximale powertarget gewährt sind es ~480w. Temperatur technisch dank ausreichender WaKü kein Problem, aber der innere Schwabe sagt nein!
Powertarget auf -5% und undervoltet. In den meisten spielen läuft eh vsync o.ä. soll heißen die 400w zieht sie seltenst, reall meist so um die ~300-350w.
Rückblickend war die Karte viiiiiel zu teuer für mich aber war damals best price.
Verbrauch, ist halt so ne Sache... Da muss man schon im Treiber hand Anlegen, ich meine wenn man der Karte das maximale powertarget gewährt sind es ~480w. Temperatur technisch dank ausreichender WaKü kein Problem, aber der innere Schwabe sagt nein!
Wie immer eine interessante Umfrage.
Für mich wäre noch der Einsatzzweck der Grafikkarten interessant:
Mit KI gibt es neue Anwendungen, da hätte mich interessiert wie viele das schon nutzen.
Bei mir wäre die Auswahl, Bild-/Videobearbeitung, Büro, Multimedia
Demzufolge müsste die Gaming Einschränkung in der Überschrift entfallen.
Für mich wäre noch der Einsatzzweck der Grafikkarten interessant:
- Bildbearbeitung
- Videobearbeitung
- CAD/CAE
- KI-Gedöns
- Gaming
- Büro
- Multimedia
- ...
Mit KI gibt es neue Anwendungen, da hätte mich interessiert wie viele das schon nutzen.
Bei mir wäre die Auswahl, Bild-/Videobearbeitung, Büro, Multimedia
Demzufolge müsste die Gaming Einschränkung in der Überschrift entfallen.
Ähnliche Themen
- Antworten
- 500
- Aufrufe
- 24.094
O
- Antworten
- 504
- Aufrufe
- 27.240
- Antworten
- 414
- Aufrufe
- 21.976