Verbrauch aktueller GPU´s mit aktiviertem Vsync?

Daggy820

Lt. Commander
Registriert
Aug. 2010
Beiträge
1.890
Hallo,

ich stöbere schon seit einiger Zeit im Netz rum und suche nach Videos oder Threats wo so ein Thema mal behandelt wird.

Und zwar finde ich immer nur Tests wo die Maximalen FPS getestet werden wo die Karten natürlich die maximal mögliche Leistung aus der Steckdose ziehen.
Mich persönlich Interessiert aber z.B. wieviel eine RTX 4080 oder eine RX 7900XTX mit aktiviertem Vsync aus der Dose ziehen würde.
Ich Spiele ganz gerne mal einen guten Singleplayer Titel und MP auch und möchte dann natürlich alles in maximalen Details spielen, deshalb kaufe ich nach Möglichkeit die etwas Dickeren Karten.
Meine RX 6800XT war bei aktiviertem Vsync auf 60FPS relativ genügsam was den Verbrauch angeht, aber diese ist nun verkauft und Ersatz muss dann mal her.

Zurzeit tendiere ich eher zur RX 7900XTX da ich mit der RX 6800XT Super zufrieden war und ich vor dem Stromstecker der RTX 4080 einfach bissl "Angst" habe da der PC auch oft läuft wenn ich mal paar Stunden nicht Zuhause bin oder der läuft auch mal über Nacht und habe wenig Lust mir einen Feuerlöscher neben das Bett zu stellen. Oder Betrifft dieses Verkokeln nur die 4090???

Wäre Super wenn das mal jemand Testen würde und mir mal ein paar Daten zur Verfühung stellen würde, WQHD als Auflösung würde passen da mein derzeitiger Gaming Monitor 2560x1080 @60Hz (75Hz mit Freesync) nutzt und da kämme 2560x1440 schon am nächsten.

Ich habe auch noch einen 49 Zoll Moni mit 144Hz hier stehen mit 3840x1080, der ist aber zurzeit noch nicht installiert und dauert noch ein Weilchen, daher wäre der Verbrauch von WQHD @ 60FPS mal Interessant für mich.

Spielen tue ich alles Queerbeet, von BF 2042 über Warzone zu HZD, Days Gone, GOW usw.

Es ist für mich in diesem Fall nur der Verbrauch der GPU interessant.

Wenn mal jemand von euch so Nett wäre und würde das mal testen wäre sehr nett.

Danke
 
Wenn man die Qualitätseinstellungen voll aufdreht und Raytracing einschaltet, ist der Verbrauch in manchen Spielen in etwa gleich.
 
  • Gefällt mir
Reaktionen: Uwe F. und GTrash81
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Uwe F. und Alexander2
Das kann man doch pauschal gar nicht beantworten. Es kommt eben auf die Auslastung der Grafikkarte an. Ist diese bei ~100% ist es egal ob vsync an oder nicht.
Da du deine graka aufrüsten möchtest, scheint deine aktuelle nicht mehr schnell genug(?). Also wird diese auch schon voll ausgelastet, auch mit vsync.
Hast du den "Denkfehler", dass nur hohe fps die Leistungsaufnahme nach oben treiben?
 
  • Gefällt mir
Reaktionen: Pjack
Hängt vom Spiel und den Einstellungen ab.
Forza Horizon 5 z.B. fordert auf einer 6700XT 70-100% Leistung bei 1080p@60FPS bei hohen/sehr hohen Qualitätseinstellungen, sprich die verbraucht dann ihre 250 Watt.
CS:Source dagegen fordert gerade mal genug Leistung, damit die GPU 40 Watt ankratzt und das bei 1080p@240FPS.
 
  • Gefällt mir
Reaktionen: Alexander2
Daggy820 schrieb:
Wäre Super wenn das mal jemand Testen würde
Einfach und vergleichbar kann man das nicht testen leider, die Softwareangaben sind auch als eher ungenau einzuschätzen, wenn man denn an der Steckdose misst hat man noch einen ganzen Haufen mehr variablen mit drin bei mehreren Nutzern die das messen. Wie zum Beispiel verschiedene Generationen an CPUs auch von verschiedenen Herstellern, die allesamt unterschiedliche verbräuche haben und mit reingerechnet werden sowie die ganzen Mainboards und erweiterungskarten sowie lüfter und blingbling, die alle die Ergebnisse tendenziell massiv verfälschen. :-)

Da bekommt man wenn man das "crowdsourced" maximal extremst grobste pi mal daumen werte.
 
  • Gefällt mir
Reaktionen: xxMuahdibxx
Nicht zu vergessen der Wirkungsgrad vom Netzteil und Messgenauigkeit
 
Daggy820 schrieb:
Oder Betrifft dieses Verkokeln nur die 4090???
Der Stecker ist sicher.
Dir wird keine Karte abkokeln, sofern du den Stecker einmalig richtig einsteckst. Sitzt der Stecker korrekt geht absolut keine Gefahr von ihm aus.
Der einzige Grund für ein "Abbrennen" der Karte ist der Benutzer.
 
  • Gefällt mir
Reaktionen: Khalinor, MehlstaubtheCat, Alexander2 und eine weitere Person
Skudrinka schrieb:
Der einzige Grund für ein "Abbrennen" der Karte ist der Benutzer.

Na dann sollte Nvidia bei allen Usern vorbei kommen und das richtig anschließen.

Oder vielleicht hat Igor mehr Recht das man 600 Watt nicht durch einen Stecker jagen sollte der einen extrem kleinen Querschnitt hat beim Adapter... Und wenn dann nicht alle Pins Kontakt haben der Strom halt Umwege läuft.

Anderweitig fehlen Klammern zum richtigen Fixieren so das der User noch weniger Fehler machen kann.

Ehrlich so ein Anschluss kostet nicht die Welt aber sie verlangen so viel für die Karte... Etwas mehr Entwicklung in diese Richtung hätte nicht geschadet.
 
  • Gefällt mir
Reaktionen: SSD960, Daggy820, GTrash81 und eine weitere Person
@Skudrinka dem stimme ich voll zu, wobei man einwenden kann, das der Stecker zumindest relativ schwer komplett aufzustecken geht und man da einfach sichergehen sollte.
 
Geckoo schrieb:
Das kann man doch pauschal gar nicht beantworten. Es kommt eben auf die Auslastung der Grafikkarte an. Ist diese bei ~100% ist es egal ob vsync an oder nicht.
mit vsync alles auf max im grafikmenü (2160p) verbrauche ich bei division 2 ca 140-150watt mit der gpu und ohne dann ab 190watt, da ja auch mehr bilder/sec gerendert werden von der gpu.
feste 60fps zu dann fps zwischen 100-135, je nach "szene".
dies ist aber jeweils nur die leistungsaufnhame des chips +paar watt für speicher und andere bauteile auf der gpu platine
 
xxMuahdibxx schrieb:
Und wenn dann nicht alle Pins Kontakt haben der Strom halt Umwege läuft.
Das wurde auch getestet, ganze Stromführende Pins abgeschnitten und so die anderen überlastet. kein Problem, solange voll und korrekt eingesteckt.

Aber ich muss auch sagen, das ich von dem kleiner gewordenen Stecker auch kein Fan bin. Möchte da aber Fair bleiben.
 
xxMuahdibxx schrieb:
Oder vielleicht hat Igor mehr Recht das man 600 Watt nicht durch einen Stecker jagen sollte der einen extrem kleinen Querschnitt hat beim Adapter.
den stecker evtl vollständig in die buchse stecken?;)
 
@feidl74 wenn ein Stecker so einfach falsch zu stecken ist... Bei der Leistung die da durch geht... Wtf..
 
@xxMuahdibxx gerade dann, sollte man sich als benutzer davon überrzeugen, das der stecker richtig sitzt...
und ja, abgesehen davon, sollte der hersteller das design überdenken..

ich fahre auch nicht mit einem auto, nach einem reifenwechsel los, ohne den richtigen, festen halt, der radschrauiben kontrolliert zu haben..
 
Ich halte den Stecker auch für eine Fehlkonstruktion hinsichtlich der Benutzerfreundlichkeit.
Keine Frage. Doch Fakt ist einfach, dass er bei vollständigem einstecken und richtigem Sitz absolut sicher ist.
Und Geschichten wie Biegeradius etc. gibt es nicht erst seit Nvidia den Stecker zur Marktreife gebracht hat, sondern betrifft jede Spannungsführende Ader! Und zwar jede!
 
Mit FPS Limit skalieren die Karten eigentlich sehr gut.

Bei WoT habe ich bei 300watt ca 360Fps @UWQHD und max Settings.

Bei 144FPS Limit nur noch 140w.
 
Danke für die Antworten, ich wollte ja nur mal einen Richtwert haben.

Ob das mit dem Stecker immer nur am Benutzer liegt glaub ich irgendwie nicht wenn man sich viele Threats usw. anschaut und vor allem Bilder usw. (Hab aber bis jetzt wie gesagt nur Beiträge über die RTX 4090 gesehen wo das passiert ist, daher spielt diese in meinen überlegeungen keinerlei Rolle)
Ich habe meine 6800XT auch nur weg gegeben weil Jemand mir ein unfassbar gutes Angebot gemacht hat wo ich nicht nein sagen konnte.
Sollte es eine RTX 4080 werden würde ich so oder so das Be Quiet Kabel für m,ein Straight Power 11 750W betsellen, da ich ungern mit Adaptern arbeiten möchte.
Bei einer RX 7900 XTX kann ich ja beruhigt sein und die guten bewährten Stecker nutzen.

@aodstorm Danke, genau so etwas wie die 140W bei 144FPS @ UWQHDF wollte ich Wissen.

@feidl74 Danke, auch das hilft mir sehr.
 
  • Gefällt mir
Reaktionen: SSD960
xxMuahdibxx schrieb:
Na dann sollte Nvidia bei allen Usern vorbei kommen und das richtig anschließen.
Na, ich finde das der Stecker eine Fehlentwicklung ist. Und bei den Preisen sollte Nvidia auch nicht am PCB sparen nur weil mit den alten Anschlüssen die Karte vielleicht etwas länger wird.
 
  • Gefällt mir
Reaktionen: Daggy820
feidl74 schrieb:
mit vsync alles auf max im grafikmenü (2160p) verbrauche ich bei division 2 ca 140-150watt mit der gpu und ohne dann ab 190watt, da ja auch mehr bilder/sec gerendert werden von der gpu.
Also ist deine Grafikkarte mit vsync nicht zu 100% ausgelastet, genau wie ich gesagt habe. Oder habe ich dich missverstanden :confused_alt:
 
Zurück
Oben