MeisterJoda
Ensign
- Registriert
- Nov. 2025
- Beiträge
- 183
Hallo,
ich habe meine RTX 5070 TUF Gaming OC bis an ihr Limit übertaktet. Einfach nur aus Neugierde für einen Test. Dabei hab ich die maximale Leistungsaufnahme auf 300W angehoben und den Chip um 350mhz übertaktet. Hab (entgegen meiner Erwartungen) einen relativ großen Leistungsboost bekommen. Höher ging vom Takt leider nur Softwareseitig nicht.
Zur eigentlichen Frage: Ich habe für meinen Test einmal den FurMark als Benchmark und War Thunder als Game genutzt. In FurMark zieht die Karte dauerhaft 300W. Ohne Ausnahme. In War Thunder auf 1080p bei 99% GPU Auslastung und ~100FPS zieht die Karte jedoch "nur" 230-250W. Ich habe einfach testweise die Auflösung ingame auf 1440p umgestellt und war dann auf einmal bei 99% Auslastung und ~70-80 FPS bei 280W. Und erst auf 4k ging es mit ~290-295 in Richtung 300. Der Takt war in allen drei Auflösungen grob immer bei 3120-3240mhz. Und die GPU war dauerhaft bei 99% Auslastung.
Ich war bisher eigentlich immer davon ausgegangen, dass eine GPU bei einer höheren Auflösung die gleiche Menge Strom zieht und einfach weniger FPS erzielt. Logisch ist das für mich auch irgendwie, weil eigentlich könnte die GPU bspw. ja dann auf 1080p sogar sonst noch mehr Leistung erreichen. Generell würde mich das mal interessieren, warum eine GPU in manchen Spielen bei 99% Auslastung deutlich mehr Strom zieht als in anderen.
Wenn grade irgendwer Zeit und Lust hat mir zu Antworten, würde ich mich sehr freuen! Ist absolut nix dringendes, bin einfach nur neugierig.
LG Jonathan
ich habe meine RTX 5070 TUF Gaming OC bis an ihr Limit übertaktet. Einfach nur aus Neugierde für einen Test. Dabei hab ich die maximale Leistungsaufnahme auf 300W angehoben und den Chip um 350mhz übertaktet. Hab (entgegen meiner Erwartungen) einen relativ großen Leistungsboost bekommen. Höher ging vom Takt leider nur Softwareseitig nicht.
Zur eigentlichen Frage: Ich habe für meinen Test einmal den FurMark als Benchmark und War Thunder als Game genutzt. In FurMark zieht die Karte dauerhaft 300W. Ohne Ausnahme. In War Thunder auf 1080p bei 99% GPU Auslastung und ~100FPS zieht die Karte jedoch "nur" 230-250W. Ich habe einfach testweise die Auflösung ingame auf 1440p umgestellt und war dann auf einmal bei 99% Auslastung und ~70-80 FPS bei 280W. Und erst auf 4k ging es mit ~290-295 in Richtung 300. Der Takt war in allen drei Auflösungen grob immer bei 3120-3240mhz. Und die GPU war dauerhaft bei 99% Auslastung.
Ich war bisher eigentlich immer davon ausgegangen, dass eine GPU bei einer höheren Auflösung die gleiche Menge Strom zieht und einfach weniger FPS erzielt. Logisch ist das für mich auch irgendwie, weil eigentlich könnte die GPU bspw. ja dann auf 1080p sogar sonst noch mehr Leistung erreichen. Generell würde mich das mal interessieren, warum eine GPU in manchen Spielen bei 99% Auslastung deutlich mehr Strom zieht als in anderen.
Wenn grade irgendwer Zeit und Lust hat mir zu Antworten, würde ich mich sehr freuen! Ist absolut nix dringendes, bin einfach nur neugierig.
LG Jonathan