News Gaming-Grafikkarten: Welche GPU habt ihr verbaut und was darf die verbrauchen?

FoXz schrieb:
Würde ich mehr spielen, würd ich mir ein Balkonkraftwerk aufs Flachdach stellen, Ohne Akku ist mit da bei 800W mittlerweile schon ab EUR 250 dabei und spielt dann im Sommer tagsüber schon mal (fast) kostenlos.
Da braucht man aber mehr als 800W eines meiner 800w Panels macht unter Besten Bedingungen 450w
200w im Durchschnitt also unter 4 Panels geht da gar nichts, im Sommer ! im Winter sieht das noch ganz anders aus.
 
GOOFY71 schrieb:
Meine derzeitige RX6950XT, die ich durch Umstände ergattert habe, verbraucht im 60fps Limit mit UV selten über 200W.
In dem Fall hätte es dann aber natürlich auch eine deutlich schwächere GPU getan …
Mystforce1978 schrieb:
Da braucht man aber mehr als 800W eines meiner 800w Panels macht unter Besten Bedingungen 450w
200w im Durchschnitt also unter 4 Panels geht da gar nichts, im Sommer ! im Winter sieht das noch ganz anders aus.
Das sind dann aber schlechte Panels oder eine schlechte Ausrichtung - meine 445W Panels mit Süd-West-Ausrichtung haben hier im April bereits nahezu jeden Tag die volle Leistung erreicht.
Aber klar, wer eine 5090 den ganzen Tag betreiben will braucht im Winter mehr als ein nach Norden ausgerichtetes Balkonkraftwerk mit schlechtem Schwachlichtverhalten - im besten Fall einen Speicher.
Wer seine PV-Anlage vernünftig dimensioniert hat auch im Winter keine Probleme.
Beim BKW sind ja nun immerhin 2000W an Panels drin …
paganini schrieb:
Bin auf das Ergebnis gespannt, vor allem auf die Verteilung NVIDIA/AMD
Danke für die Umfrage!
Die kleine Blase hier wird wie immer nicht den Marktanteilen entsprechen :p
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mystforce1978
Habe nun seit Ende 2022 meine strix 4090 OC verbaut, mit einem Powerlimit von 545watt und dieses wird auch ausgereizt. Ist nun auch schon über 2 Jahre alt die Karte und sollte ursprünglich durch die 5090 ersetzt werden, diese kaufe ich aber nicht für die Affen Preise, zumal für mich lediglich die von MSI infrage käme, da man bei allen anderen Kompromisse eingehen muss.
Da ich jedoch lediglich wenn es hoch kommt 5 Stunden die Woche spiele und das in 3840x1600 reicht mir die Karte.
 
Dreamcatcher3 schrieb:
Das hier ist eine Bubble von Hardware Enthusiast.
Eine Megabubble... Und wenn man hier regelmässig mitliest - muss man sich triple-facepalmen.

OK. Ist ne heftige Spreizung hier.
Einige kommen tatsächlich aus dem professionellen IT Bereich.
Dafür stehen dagegen Horden von Gamerkiddies mit Gaminghardware und mit Gamervorstellungen von IT.

Ich stehe auch voll auf hochopulente Signaturen. *kicher
Das ist so bisschen wie der Typ, der in die Bar kommt - den Porscheschlüssel prominent auf dem Tresen platziert - aber noch die Fahrradklammer an der Hose hat 🤣

Eine coole Signatur bringt halt nix, wenn man sich dann blamiert.
Und es nicht merkt.

Es leiden viele Menschen unter Statussymbolen. Das amüsiert mich hart.
 
  • Gefällt mir
Reaktionen: KeinNutzerName
Wow...
Hätte nicht gedacht, dass es hier so viele gibt, die so viel Geld für eine 4090 rausgeworfen haben!
Das sind mit Abstand die meisten, und fast doppelt so viele wie die Nutzer einer 4080 oder einer 9070 XT hier!

Mich würde interessieren, wie viel (in Prozent) die Karte, also die 4090, über 1 Jahr hinweg so ausgelastet wird...
Wenn ich raten müsste, 20% maximal 30-40% wenn Streamer dabei sind?

Was auch interessant ist, dass es so wenige gibt, die eine RTX 3080 haben, denn die Karte "war" mit Abstand die Beste, wie Gamersnexus recht gut in ihrem Video The Great NVIDIA Switcheroo | GPU Shrinkflation neulich recht gut gezeigt hat.

Dann noch eine Frage an die 9070 XT User, sind ja doch schon sehr viele hier...
Wie läuft das Ding?
Bin auch schon eine Weile am Überlegen, ob ich nicht eine AMD kaufe, aber es gab ja bei vielen Tests immer wieder Probleme bei einzelnen Spielen wegen des Treibers, wurde dies schon gefixt?

Und bitte jetzt nicht mit irgendwas in der RTX 5xxx Serie vergleichen wegen Stabilität oder überhaupt...
Mir ist bewusst, dass diese kompletter Müll ist, und zwar in fast jeder Hinsicht, verglichen mit dem Preis!
Was ja der Grund ist, warum ich wegen AMD überlege. 😉
 
Hab meiner 6800XT +15% Powerlimit (ungefähr 334 Watt) erlaubt, braucht die aber extrem selten. 3DMark nutzt das aus und ansonsten hab ich das nur vereinzelt bei Peaks erlebt. Ansonsten läuft SotTR, Borderlands 3 & Co im Benchmark bei 318 Watt maximal.
Hab den GPU Takt auf 2750 (Basis 2439), 975mV (1150) und VRAM auf 2150 (2000) stabil in allen Spielen und im 3DMark 22750 Punkte. Für das Ergebnis finde ich den Verbrauch fair.
Mein Limit liegt bei 350 Watt weil ich ein 750 Watt ATX2.4 Netzteil habe und mir nicht wegen eines Säufers ein neues NT kaufen will. Ich brauche auch nicht Leistung um jeden Preis, deswegen ist das für mich der "Sweetspot". Strom produzieren wir mit 168° Süd ohnehin Strom sehr effizient selber, deswegen ist auch nicht das Ziel beim Tweaken den Verbrauch zu drosseln.
 
hennich schrieb:
Nitro + war meine Wahl. Eine Klasse Karte. Die wohl noch min. 2Jahre im Gehäuse bleiben sollte. Warum ich auch damit sehr glücklich bin, für 579.- habe ich sie bekommen im Sep. 24. Endlich mal Glück gehabt beim Zeitpunkt.
Sehr sehr geil!
Welche Games spielst Du damit am liebsten?
 
Ich habe noch eine 6800XT und spiele in WQHD, und ich denke das ich es noch bis zur UDNA Grafikkarte von AMd aushalten werde. Die Regler kann man auch nach rechts bewegen, Arma Reforger läuft gut, Russian Fishing 4, Raceroom und Asseto Corsa auch. Ich allse sie mit -10% PT laufen das undervoltig habe ich noch nicht ausgereizt, von 1150 auf 1100 gestellt. Wenn Pheenox 975mV schafft, hat meine Red Devil sicher noch Potential, was ich ausschöpfen kann.
 
Besitze eine Sapphire Nitro+ RX 6700 XT. Werksangabe sind 230W. Habe sie undervoltet bzw. habe mehrere Profile erstellt. Im Schnitt sind es 130-150W. Die 6000er Serie lassen sich gut undervolten.
 
Habe mittlerweile eine XFX Mercury 9070XT bei 374W und UV und bin sehr zufrieden. Sobald der Kühlblock seitens AC da ist, dann wird bestellt und absolte Ruhe ist dem Kasten.
 
Bullet Tooth schrieb:
Ich habe noch eine 6800XT und spiele in WQHD, und ich denke das ich es noch bis zur UDNA Grafikkarte von AMd aushalten werde. Die Regler kann man auch nach rechts bewegen, Arma Reforger läuft gut, Russian Fishing 4, Raceroom und Asseto Corsa auch. Ich allse sie mit -10% PT laufen das undervoltig habe ich noch nicht ausgereizt, von 1150 auf 1100 gestellt. Wenn Pheenox 975mV schafft, hat meine Red Devil sicher noch Potential, was ich ausschöpfen kann.
Ich hab die Nitro+, also etwa gleiches Qualitätslevel. Bei einem guten Chip solltest Du bei Deiner auch über 2700 Takt stabil ans laufen kriegen. Dann aber auch mit PT 10 - 15% bei 975 mV. Der Speicher läuft im Grunde bei allen 6800XT Karten bei 2150 problemlos. AMD hat hier aus Gründen der konkurrenzfähigeit zu den 69XX ein hartes Limit gesetzt. 😉 Deswegen sind die 6800XTs auch alle eigentlich ziemliche Bretter.
 
  • Gefällt mir
Reaktionen: Bullet Tooth
Mystforce1978 schrieb:
Da braucht man aber mehr als 800W eines meiner 800w Panels macht unter Besten Bedingungen 450w
200w im Durchschnitt also unter 4 Panels geht da gar nichts, im Sommer !

Bei mir steht der Zähler bei Sonnenschein von ca 8:30 bis 15:30 trotz laufendem GamingPC, Monitor und StereoAnlage still (2x410 / 800W) (neben dem HausGrundumsatz)
 
  • Gefällt mir
Reaktionen: FoXz
q3fuba schrieb:
Wow...
Hätte nicht gedacht, dass es hier so viele gibt, die so viel Geld für eine 4090 rausgeworfen haben!
Das sind mit Abstand die meisten, und fast doppelt so viele wie die Nutzer einer 4080 oder einer 9070 XT hier!
Macht ja auch Sinn.
Sobald unsere ComputerBase Bubble hier mal eine Umfrage startet, welches die besten GPUs der letzten 10 Jahre waren, wird die 1080Ti auf Platz 1 landen und die 4090 auf Platz 2.
Dann kommt laaaaaaaaange gar nichts, und Platz 3 wird evtl so etwas wie die 6800XT stehen oder die neue 9070XT.

Das Ironische ist, dass man 2,5 Jahre später das "rausgeworfene" Geld fast wiederbekommt.
Mein Bruder hat seine 4090 Zotac letzte Woche für 2100 Euro via ebay Gebote verkauft. Noch Fragen? :D


q3fuba schrieb:
Mich würde interessieren, wie viel (in Prozent) die Karte, also die 4090, über 1 Jahr hinweg so ausgelastet wird...
Wenn ich raten müsste, 20% maximal 30-40% wenn Streamer dabei sind?

Ich komme bei mir in den ~ 30 Monaten mit meiner 4090 nicht mal auf 10%, aber der Punkt ist folgender: Ich habe die Leistung in den Phasen, in denen ich Raytracing und Pathtracing Games spiele, haue alle Slider auf Ultra und schmeisse DLAA an oder DLSS mit der höchten Leistungseinstellung.
Ich spiele dann ohne Kompromisse mit den maximalen Details, welche die devs ermöglichen.

Wem Maximum Grafik bei maximal möglichen fps nicht auf der Prio 1 liegen, hat ja genug Leistung und wenig Kompromisse mit einer 9700XT oder 5070Ti z.B.

Daher ist Deine "Auslastungsqoute" hier für uns als 5090 und 4090 Zielgruppe falsch ausgelegt. Wir kaufen für die Situationen, in denen wir die Leistung und Performance brauchen.
Und wenn man bestimmt 4K oder 4K Ultraweit Szenarien angeht, bekommt man auch die 4090 und 5090 mit/trotz DLSS in die Knie.

"Braucht" man eine 4090 oder 5090 fürs Gaming? Lol, nein, zum GLück never ever.

Ich "brauche" aber für mein Gaming Hobby als nächstes die 5090 Astral, und sie kommt näher :D
 
  • Gefällt mir
Reaktionen: MalWiederIch
Der Trend. Was kommt demnächst - 1KW für die GPU?


• GeForce 8800 GTX (2006): ca. 155 Watt


• GeForce GTX 280 (2008): ca. 236 Watt


• GeForce GTX 580 (2010): ca. 244 Watt


• GeForce GTX 780 Ti (2013): ca. 250 Watt


• GeForce GTX 980 Ti (2015): ca. 250 Watt


• GeForce GTX 1080 Ti (2017): ca. 250 Watt


• GeForce RTX 2080 Ti (2018): ca. 250 Watt


• GeForce RTX 3090 (2020): ca. 350 Watt


• GeForce RTX 4090 (2022): ca. 450 Watt


• GeForce RTX 5090 (2025): ca. 575 Watt


1743965443575.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Corpus Delicti, schneeland, daknoll und 3 andere
Entrovis schrieb:
Der Trend. Was kommt demnächst - 1KW für die GPU?
Ich denke und hoffe, dass die 5090 hier das "traurige" Ende der Watt-Entwicklung darstellt.
Die 6090 wird wieder effizienter, aber dann auch wieder "nur" 30% - 40% mehr Performance bringen gegenüber einer 5090 bei dann, so meine Prognose , 450 Watt, so 4090 Region.
 
Habe eine 9070 XT ergattern können und bin sehr erfreut über die Einstellungsmöglichkeiten im Treiber. Während mir die Leistungsaufnahme jetzt im Vorhinein nicht soo wichtig war, kann man einfach im Treiber generelle und titelspezifische FPS-Limits, Powertargets und Undervolting einstellen, sodass ich jetzt generell Undervolting betreibe und eSports-Titel mit -30% oder z.B. Cyberpunk mit +10% Powertarget laufen.
 
  • Gefällt mir
Reaktionen: Vasto, Jagdwurst, Wanderwisser und 4 andere
Laphonso schrieb:
Ich denke und hoffe, dass die 5090 hier das "traurige" Ende der Watt-Entwicklung darstellt.
Die 6090 wird wieder effizienter, aber dann auch wieder "nur" 30% - 40% mehr Performance bringen gegenüber einer 5090 bei dann, so meine Prognose , 450 Watt, so 4090 Region.
Wird nicht passieren s. z.B. Handys, wo sich der Stromverbrauch trotz 3nm-Fertigung sich der Verbrauch nicht verringert hat. Gleicher Verbrauch bei 35% mehr an Performance. Traurig aber wahr ist, dass es bereits derzeit eine PV und fetten Akku braucht, um einen Highend-PC sinnvoll zu betreiben.
 
  • Gefällt mir
Reaktionen: daknoll und Laphonso
Riegelstriegel schrieb:
Grund für mich war, dass es unter der 4080 nur Speicherkrüppel mit weniger als 16 GB gab und darüber nur -zwar dann wieder mit besserem Preis-Leistungs-Verhältnis- die 4090 mit für mich zu extremer Leistungsaufnahme. (Ja ich weiß, manche kaufen sie sich trotzdem und drosseln sie dann. :D)
Die 70 Watt bzw. 2 Cent (!!!) die Stunde bei einer 1.600€+ GPU waren also das, was dich von einer RTX 4090 abgehalten haben - lag natürlich nicht am Aufpreis :freaky:
gedi schrieb:
Traurig aber wahr ist, dass es bereits derzeit eine PV und fetten Akku braucht, um einen Highend-PC sinnvoll zu betreiben.
Braucht es doch nicht oder zockst du 10 Stunden täglich Montag-Sonntag? Wie viele hier so etwas sinnfreies schreiben ohne die tatsächlich winzigen Stromkosten im Verhältnis zu Anschaffungspreis zu kennen :rolleyes:
Nochmal die Differenz zwischen einer RTX 4080 und 4090 liegt bei 2 (!!!) Cent die Stunde. Wenn du dir das nicht leisten kannst ist das „teure“ Hobby eben nichts für dich … aber 1-2 Bier am Wochenende sind schon deutlich teurer als die Stromkosten für eine 5090 :p
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: calippo
Danke für die Frage wann man die Grafikkarte gekauft hat.

Hätte nicht gedacht, dass die 1070 schon 2016 war.
 
Zurück
Oben