graka temps höher bei niedrigerer auslastung

Rumguffeln

Commander
Registriert
Okt. 2016
Beiträge
2.460
hey sorry ich wollte kein thema dazu aufmachen .. hab aber auf die schnelle nix gefunden

kurz zusammengefasst

witcher 3..... nach 15 min graka auslastung bei 99% temp bei 69° takt 1875mhz

horizon zero dawn.... nach 15 min auslastung 98% temp 68° takt 1875mhz

und nun days gone nach nicht mal 3 min auslastung bei 95% (teils96%) 74° takt 1830mhz

woran kann das liegen ? treiberproblemchen weil neues game und so ?
alles ausgelesen mit msi afterburner
und sorry hätte gern bilder gepostet aber auf meinen screenshots war irwie kein overlay zu sehen

oh und btw die cpu verhält sich in jedem dieser games mehr oder weniger gleich

oh ps bevor einer antwortet die temps seinen völlig ok .. ja das weiß ich auch .. mir will nur nicht in den kopf warum bei niedrigerer last eine deutlich höhere temperatur anliegt
 
oh mist das hätte ich noch dazu schreiben sollen sorry for that
ne lüfter drehzahl quasi gleich ca bei 1150-1200 rpm .. dann aber bei days gone bei fast 1280 wegen der 74°
 
Auslastung muss nicht gleich auslastung heiße, ich denke ist so ähnlich wie bei den CPUs man kann die CPU zu 100% auslasten, aber mit AVX hat man trotzdem ein deutlich höheren verbrauch obwohl beides 100 % ist
 
Fujiyama schrieb:
deutlich höheren verbrauch
oh das is ne idee
den verbrauch hab ich mir garnich angesehen :)

werd ich nachholen :D

3dfx schrieb:
FPS berechnet werden desto mehr Last liegt an.
stimmt so nicht ganz

klar wenn du bei dem selben game 144 hast oder auf 60 limitierst macht das ne menge aus
aber nicht wenn die frames unlocked sind und die graka immer und überall vollgas gibt
 
Es gibt eben unterschiedliche Lasten, die GPU kann zu fast 100% ausgelastet sein, trotzdem variiert bei jeden Spiel die Art der Last. - Versuch es mal selber mit Furmark, du wirst sehen, das Temperatur höher geht als bei deinen Games und dabei die Taktrate niedriger sein wird. Eben weil Furmarkt eine andere, unreale,Last erzeugt und die Karte ins Strom/Temp Limit zwingt, wo der Takt nicht mehr gehalten werden kann.
 
Rumguffeln schrieb:
stimmt so nicht ganz

klar wenn du bei dem selben game 144 hast oder auf 60 limitierst macht das ne menge aus
aber nicht wenn die frames unlocked sind und die graka immer und überall vollgas gibt
Wenn du meinst, dann ignoriere eben Vsync und Co, leb damit.
Ich weiß aus Erfahrung das es anders is...
 
3dfx schrieb:
Wenn du meinst, dann ignoriere eben Vsync und Co, leb damit.
Musst du genauer erklären, welchen Einfluss Vsync genau haben soll, in der Hinsicht?
Und, womit soll er genau leben?
 
so

hab nochmal gegengetestet wegen verbrauch und auch noch shadow of the tombraider mit reingenommen

verbrauch lag überall bei ~ 235 - 245w
außer bei days gone dort waren es einfach mal über 270w im peak fast 280w



Skudrinka schrieb:
GPU kann zu fast 100% ausgelastet sein, trotzdem variiert bei jeden Spiel die Art der Last
seltsam is das schon :confused_alt:

ist vieleicht wie beim auto .. ob ich nun im ersten gang bei 6000rpm unterwegs bin oder im vierten bei unter 2000 .. riesen verbrauchs unterschied aber die selben kmh
 
3dfx schrieb:
Weil die FPS höher sind, je mehr FPS berechnet werden desto mehr Last liegt an.
Aktiviere mal bei allen Spielen zb Vsync im Treiber.
Totaler Quatsch. Die FPS sind egal, der Stromverbrauch und die genutzten Recheneinheiten zählen.

Wenn Furmark mit 50fps läuft und Tetris mit 1000fps, meinst du dann, dass die Karte bei Tetris heißer läuft? Lol.
Ergänzung ()

Rumguffeln schrieb:
seltsam is das schon
Nicht wirklich. Auslastung sagt nur, wie viel Prozent der Recheneinheiten ausgelastet sind. Aber innerhalb des Chips brauchen selbst verschiedene Basisoperationen unterschiedlich viel Strom. Ebenso kann sein, dass Spiel A vielleicht viele Cachezugriffe hat, Spiel B aber nicht. Die Chips sind hochkomplex, die Art der Berechnung und Zugriffe beeinflussen, wo wieviel Strom fließt, und somit auch, wie heiß die Teile des Chips werden.
 
  • Gefällt mir
Reaktionen: Skudrinka
Powl_0 schrieb:
Stromverbrauch und die genutzten Recheneinheiten zählen.
Ganz genau so ist es, mehr FPS = mehr Last, ergo höhere Temps, so wie ich sagte.
Deine "Totaler Quatsch" ansage zeigt nur das du versuchst deinen Standpunkt mit aggression zu verteidigen, aber das ist ein Zeichen der schwäche.
Das nächste mal etwas genau nachdenken was das gegenüber schrieb, dann verrennst du dich nicht 🙂
 
  • Gefällt mir
Reaktionen: Fusselty
3dfx schrieb:
mehr FPS = mehr Last, ergo höhere Temps, so wie ich sagte.
Nein. Das gilt höchstens innerhalb eines Spiels bei gleichen Settings.

Spiel A mit 50fps vs Spiel B mit 100fps sagt so erstmal genau garnichts über Temperatur aus.
Ergänzung ()

3dfx schrieb:
Das nächste mal etwas genau nachdenken was das gegenüber schrieb, dann verrennst du dich nicht 🙂
Ha. Du drückst dich mehr als schwammig aus, klärst erst im Nachhinein Unklarheiten auf und willst nun so tun, als hätte ich nicht nachgedacht?

Bitte. Denk du lieber nach bevor du kommentierst.
 
Ich gebs auf, Tatsachen sind scheinbar nicht euer Ding.
Du bastelst dir eine Erklärung, die du für logisch hältst, willst auf biegen und brechen daran festhalten, aber die Realität wir dabei ignoriert, glaub doch weiter daran, mir kanns ja egal sein.
Gute Nacht...
 
Na sorry, deine Aussage trifft halt nur in dem spezifischen Fall zu, wenn du zwei mal das gleiche Spiel vergleichst, mit beide Male exakt gleichen Settings, nur anderer Bildrate.

Das hilft dem TE genau 0 weiter.

Hier gehts um mindestens 3 verschiedene Spiele. Da stimmt deine Aussage nunmal nicht mehr pauschal.
Ich dreh mir da nichts hin, du verstehst schlichtweg nicht, wie es wirklich abläuft. Siehs ein und fertig.
 
3dfx schrieb:
mehr FPS = mehr Last, ergo höhere Temps, so wie ich sagte.
Ah ja, dann Belege deine Theorie doch mal.

Natürlich ist es Quatsch, eine GPU kann auch bei 10 fps voll ausgelastet sein, aber auch bei 300.. Das ist von vielen Faktoren abhängig.

Das würde ja bedeutet, wenn meine Grafikkarte zu langsam für ein bestimmtes Spiel ist und sie nicht genügend Frames generieren kann, das sie nicht ausgelastet ist? :confused_alt:
Ergänzung ()

Und was hat jetzt vsync damit zu tun?
 
Skudrinka schrieb:
Ah ja, dann Belege deine Theorie doch mal.
Powl_0 schrieb:
Na sorry, deine Aussage trifft halt nur in dem spezifischen Fall
nah last es einfach ..manche leute können und wollen es einfach nicht verstehen und leben lieber in ihrer eigenen kleinen welt :)
 
Rumguffeln schrieb:
woran kann das liegen ? treiberproblemchen weil neues game und so ?
alles ausgelesen mit msi afterburner
und sorry hätte gern bilder gepostet aber auf meinen screenshots war irwie kein overlay zu sehen

Liegt am Game/Treiber.
Aber warum nen Kopf machen, kommen doch trotzdem 100 FPS bei raus^^

Bei mir drückt es das Game auch übelst ins Power-Korsett. Ist bestimmt der Weg, wie das Game die Shader belastet.
Am besten Du installierst mal den Game-Ready von Heute und schaust ob sich das ändert.

Du wirst noch viele Games finden, die die Graka unterschiedlich auslasten.
 

Anhänge

  • DaysGone_2021_05_18_10_53_29_404.jpg
    DaysGone_2021_05_18_10_53_29_404.jpg
    1,5 MB · Aufrufe: 155
  • DaysGone_2021_05_18_09_30_49_010.jpg
    DaysGone_2021_05_18_09_30_49_010.jpg
    1,1 MB · Aufrufe: 160
  • DaysGone_2021_05_18_09_28_57_734.jpg
    DaysGone_2021_05_18_09_28_57_734.jpg
    1,2 MB · Aufrufe: 155
  • DaysGone_2021_05_18_09_27_15_628.jpg
    DaysGone_2021_05_18_09_27_15_628.jpg
    1,7 MB · Aufrufe: 171
  • Gefällt mir
Reaktionen: Klever
HisN schrieb:
Du wirst noch viele Games finden, die die Graka unterschiedlich auslasten.

Genauso sieht es aus. Manche Spiele brauchen einfach "mehr", sei es durch unterschiedliche Auslastung durch nötige Berechnungen, unterschiedliche Spielengines mit unterschiedlicher Optimisierung etc, und dann kommt noch der Treiber dazu.

Da fällt mir wieder World of Warships als Paradebeispiel dazu ein, das Spiel benutzt das BigWorld Engine aus 2015 mit Dx11, Dx12 unterstützt es nicht. Da liegt der Verbrauch bei meiner auf 0.993 mV begrenzten 2080 Ti mit auf 10% vergrößertem Powerlimit locker bei 290-300 Watt bei schon bei ca. 90-94% Auslastung und FPS Begrenzung auf 85 FPS (von sich aus begrenzt das Spiel die FPS auf 75) und zwischen 1920-1965 MHz spingendem Takt.

Lasse ich dagegen Cyberpunk laufen, hält meine GPU konstant die 1965 MHz mit Verbrauch der mit ca 250-260 Watt nochmal 30-40 Watt unter dem von World of Warships liegt. Die GPU bleibt auch noch ein Paar Grad unter der von WoWs (61 Grad bei Cyberpunk, 63 Grad bei WoWs).

Und es hängt auch von den Settings ab, WoWs lasse ich mit MSAA auf 8x laufen, was auf 1440p ein sehr große Rechenlast für die GraKa bedeutet, aber ich mache es einfach weil ich es kann und das Spiel auf max Settings spielen möchte.

Bei GPU Temperatur lohnt es sich übrigens nicht nur auf die average GPU Temp zu schauen, auch Memory Temp sowie Hotspot sind auch von Bedeutung. Bei mir liegt selbst bei den 300 Watt Verbrauch von WoWs der Hotspot sowie Memory bei max 77 Grad, da habe ich schon selbst GPUs gehabt die bei dem Hotspot deutlich heißer werden, andere Nutzer auch, wo der Hotspot schon über 90 Grad liegt. Je nachdem wie der Hotspot bzw Memory Temp ist, kann es ja da zu einem temp bedingten Throtteln da kommen.

Und falls das nicht der Fall ist, wie HisN sagte, liegt's am Spiel.
 
HisN schrieb:
Liegt am Game/Treiber.
jop denk ich auch .. irwas an der game engine oder ähnliches

HisN schrieb:
Am besten Du installierst mal den Game-Ready
der is schon drauf.. kurz vorher instaliert
weiß nicht wie es vorher war

Klever schrieb:
Lasse ich dagegen Cyberpunk laufen
das hatte ich auch nochmal kurz angeworfen .. machte bei mir aber nicht viel sinn da fast immer cpu limit

danach mal red dead gezockt .. und das verhält sich wie die meisten anderen games auch unter 70° ~250w

ich denk einfach wirklich das es am game liegt .. naja wird die karte halt 5° wärmer als sonst :D
 
Zurück
Oben