Ryzen 7900x - Feste Frequenz = niedrigere Temperaturen + Stromverbrauch?

yAiz0 schrieb:
Also was mich eigentlich gestört hat war, dass ich beim Spielen von Tarkov mit der Zeit immer weniger FPS hatte. Am Anfang vom Raid sehen diese meist noch sehr gut aus (150-190 FPS auf Customs bspw.) aber nach ein paar Minuten und je nach Standpunkt auf der Map sind diese dann deutlich eingebrochen (auf teilweise 100-110 FPS). Dabei ist mir dann aufgefallen dass meine GPU auch nicht mehr richtig ausgelastet wird. Die Auslastung ist teilweise auf unter 50% gefallen. Mein Gedanke war also wenn ich die Taktrate der CPU festlege, unterstützt diese meine GPU besser und die Frames bleiben stabiler, was sich auch bestätigt hat denn die Auslastung meiner GPU beträgt nun meistens 80-95% und fällt nur sehr selten unter die 80%.

Mir fällt da der Energiesparplan in Windows ein...

Entweder unter "Erweiterte Energieeinstellungen" bei "Prozessorenergieverwaltung" den "Minimalen Leistungszustand" auf 80% oder so setzen und ausprobieren.
Oder gleich den Sparplan auf Maximale Leistung stellen und testen.
 
DJMadMax schrieb:
Daran siehst du ja auch, dass Tarkov ein extrem CPU-lastiges Spiel zu sein scheint.

Du kannst ja spaßeshalber mal die Auflösung hochschrauben (höher als dein Monitor nativ zulässt, mit Skalierungsfaktoren über den Treiber).

Wenn du irgendwann in's GPU-Limit rutschst, sollten da auf jeden Fall die 99-100% Auslastung stehen, sogar mehr oder weniger dauerhaft.
Das hatte ich auch mal überlegt zu testen, allerdings lässt es Tarkov nicht zu eine höhere Auflösung einzustellen als mein Monitor wiedergeben kann. Kann ich die Auflösung in der AMD Adrenalin Software einstellen? Hatte vorher ne Intel/Nvidia Kombi, daher kenn ich mich mit den AMD-Softwares leider noch nicht so gut aus.

Genau, also ich versuche ne Auslastung von mindesten 85% dauerhaft zu erreichen, hab auch die Effekte wie Grasschatten oder SSR + HBAO aktiviert sowie alle Einstellung auf "High" aber meine GPU ist sich trotzdem ein bisschen am langweilen teilweise. Verusche irgendwie noch die letzten % Leistung aus meiner GPU rauszuholen, da die Auflösung und die generell hohen Einstellungen den Frames aber keinen Abbruch tun wäre natürlich schön die Restleistung die die GPU noch über hat irgendwie in Form von Frames rauszuholen 😅
Ergänzung ()

Buggs001 schrieb:
Mir fällt da der Energiesparplan in Windows ein...

Entweder unter "Erweiterte Energieeinstellungen" bei "Prozessorenergieverwaltung" den "Minimalen Leistungszustand" auf 80% oder so setzen und ausprobieren.
Oder gleich den Sparplan auf Maximale Leistung stellen und testen.
Werd eich ebenfalls mal testen heute Nachmittag. Vielen Dank! 😎
 
  • Gefällt mir
Reaktionen: DJMadMax
Die TDP 170watt das heißt das deine CPU sich bis zu 230watt nehmen darf. Und das ist der Punkt, die CPU nimmt sich soviel sie brauch um den maximal möglich Takt zu erreichen. Stell sie ruhig mal auf 105watt. Zusätzlich solltest du SMT deaktivieren da du sowieso nur Zockst.
Ergänzung ()

yAiz0 schrieb:
Kann ich die Auflösung in der AMD Adrenalin Software einstellen?
Ja, nennt sich VSR:virtuell super resolution.

Müsste unter Anzeige im Im Adrenalin Treiber zu finden sein.
Ergänzung ()

Bei manchen spielen hilft es auch die Min FPS im Spiel per Treiber anzugeben. Das kannst du z.b. mit chill machen Wenn du eine 6000er gpu hast. Oder halt die Auflösung erhöhen um die gpu mehr zu belasten.
 
Zuletzt bearbeitet:
Northstar2710 schrieb:
Die TDP 170watt das heißt das deine CPU sich bis zu 230watt nehmen darf. Und das ist der Punkt, die CPU nimmt sich soviel sie brauch um den maximal möglich Takt zu erreichen. Stell sie ruhig mal auf 105watt. Zusätzlich solltest du SMT deaktivieren da du sowieso nur Zockst.
SMT hab ich jetzt speziell für Tarkov über die Software "Processor Lasso" deaktiviert, wenn das aber generell besser fürs Zocken ist werde ich das auch mal im Bios ausstellen, dankeschön.

Northstar2710 schrieb:
Ja, nennt sich VSR:virtuell super resolution.

Müsste unter Anzeige im Im Adrenalin Treiber zu finden sein.
Ergänzung ()

Bei manchen spielen hilft es auch die Min FPS im Spiel per Treiber anzugeben. Das kannst du z.b. mit chill machen Wenn du eine 6000er gpu hast. Oder halt die Auflösung erhöhen um die gpu mehr zu belasten.
Okay, Virtuell Super Resolution hatte ich tasächlich schonmal gelesen.

Hab ne 6950 XTX, das mit den mind. FPS hab ich auch schon mal gesehen wenn ich mich nicht täusche. Werde ich ebenfalls mal testen. Vielen Dank für die Tipps :daumen:
 
yAiz0 schrieb:
Das hatte ich auch mal überlegt zu testen, allerdings lässt es Tarkov nicht zu eine höhere Auflösung einzustellen als mein Monitor wiedergeben kann. Kann ich die Auflösung in der AMD Adrenalin Software einstellen?
Schau mal hier:
https://www.amd.com/en/support/kb/faq/dh-010

Das ist eine treiberseitige Einstellung, unabhängig vom jeweiligen Spiel. Bis auf wenige Ausnahmen sollte somit jedem Spiel vorgegaukelt werden, dass ein Monitor mit höherer Auflösung als tatsächlich vorhanden ist und der Treiber gibt dann trotzdem die korrekte Auflösung an deinen Monitor aus.

Manche nutzen die Funktion z.B., wenn das AntiAliasing eines Spiels nicht gut genug funktioniert.

yAiz0 schrieb:
Verusche irgendwie noch die letzten % Leistung aus meiner GPU rauszuholen, da die Auflösung und die generell hohen Einstellungen den Frames aber keinen Abbruch tun wäre natürlich schön die Restleistung die die GPU noch über hat irgendwie in Form von Frames rauszuholen 😅
Und hier frage ich mal ganz allgemein: wieso denn?

Ich bin froh, dass meine Grafikkarte oft nur zu 40-50% ausgelastet ist.

Was hätte ich denn davon, unendlich viele Frames zu generieren? Will ich denn, dass meine Grafikkarte ununterbrochen 200, 300, 400 Watt verbrät? Dabei unnötig heiß wird? Das ganze System unerträglich laut, weil alle Lüfter Vollgas geben?

Die CPU übrigens genauso: die Leute scheinen gar nicht zu verstehen, was bei der CPU für ein Last-Unterschied herrscht, ob nun 100 oder 200 FPS gerendert werden müssen (abhängig vom Spiel). Auch das könnte ein wunderbares Wechselspiel von Escape from Tarkov sein, womit deine "Probleme" erklärbar sind.

Von daher appelliere ich an die Vernunft eines jeden: Nutzt das Syncing eurer Monitore, ob VSync, Free- oder G-Sync ist dabei vollkommen egal (bzw abhängig vom jeweiligen Spiel und Spielgefühl). Niemand braucht 200+ FPS und in den meisten Spielen würde man im Blindvergleich nicht einmal einen Unterschied zwischen 100 und 140 FPS wahrnehmen können und selbst wenn, dann müsste man schon nahezu forensische Vergleiche anlegen.
 
  • Gefällt mir
Reaktionen: wrglsgrft
DJMadMax schrieb:
Schau mal hier:
https://www.amd.com/en/support/kb/faq/dh-010

Das ist eine treiberseitige Einstellung, unabhängig vom jeweiligen Spiel. Bis auf wenige Ausnahmen sollte somit jedem Spiel vorgegaukelt werden, dass ein Monitor mit höherer Auflösung als tatsächlich vorhanden ist und der Treiber gibt dann trotzdem die korrekte Auflösung an deinen Monitor aus.

Manche nutzen die Funktion z.B., wenn das AntiAliasing eines Spiels nicht gut genug funktioniert.


Und hier frage ich mal ganz allgemein: wieso denn?

Ich bin froh, dass meine Grafikkarte oft nur zu 40-50% ausgelastet ist.

Was hätte ich denn davon, unendlich viele Frames zu generieren? Will ich denn, dass meine Grafikkarte ununterbrochen 200, 300, 400 Watt verbrät? Dabei unnötig heiß wird? Das ganze System unerträglich laut, weil alle Lüfter Vollgas geben?

Die CPU übrigens genauso: die Leute scheinen gar nicht zu verstehen, was bei dee CPU für ein Last-Unterschied herrscht, ob nun 100 oder 200 FPS gerendert werden müssen (abhängig vom Spiel).

Von daher appelliere ich an die Vernunft eines jeden: Nutzt das Syncing eurer Monitore, ob VSync, Free- oder G-Sync ist dabei vollkommen egal (bzw abhängig vom jeweiligen Spiel und Spielgefühl). Niemand braucht 200+ FPS und in den meisten Spielen würde man im Blindvergleich nicht einmal einen Unterschied zwischen 100 und 140 FPS wahrnehmen können und selbst wenn, dann müsste man schon nahezu forensische Vergleiche anlegen.
Also solange meine GPU ich sag mal mind. 130 FPS liefert kann sie von mir aus gerne bei 60-70% Auslastung bleiben, leider hatte ich aber teilweise spürbare Einbrüche welche ich versuche durch die höhere Auslastung zu kompensieren. Mein GPU hat bei Tarkov teilweise unter 60 Grad, wollte Sie jetzt nicht zum glühen bringen aber die 130 Frames oder besser noch 144 die mein Monitor wiedergeben kann sollten schon drin sein, an der Auslastung kann ich ja auch sehen dass es für meine GPU möglich wäre.

Hab hier mal ein Video gefunden indem der 7900X mit dem 7900X3D vergleichen wird da sieht man ganz gut, dass die GPU auch bei höheren Frames nicht wirklich warm wird. Hab allerdings nicht erwartet dass der X3D so viel besser performt. 😳
 
yAiz0 schrieb:
Also solange meine GPU ich sag mal mind. 130 FPS liefert kann sie von mir aus gerne bei 60-70% Auslastung bleiben, leider hatte ich aber teilweise spürbare Einbrüche welche ich versuche durch die höhere Auslastung zu kompensieren.
Hier liegt aber dein Irrgaube. Wenn das Framepacing nicht passt, können sich selbst 300 FPS unflüssig, stotternd, ruckelig anfühlen.

Tu dir doch selbst einmal den Spaß an und begrenze das Spiel (geht das ingame? Ansonsten per Treiber) auf 100 FPS. Deine CPU wird massiv entlastet und die Grafikkarte bekommt flüssiger und gleichmäßiger die nötigen Daten zur Verarbeitung (zum Rendern der Frames) geliefert.
 
Gutes Argument, 110 FPS auf Lighthouse fühlen sich tatsächlich ruckliger an als 110 FPS auf Customs. Diese Map scheint irgendwie generell noch nicht so wirklich gut optimiert zu sein, da kommt es bei mir häufiger zu Rucklern, welche sich aber in den FPS nicht widerspiegeln. Ich kann VSync in Tarkov mal einschalten und schauen ob's dadurch besser wird. Ich werde berichten 👍
 
Tarkov ist aber auch ein extrem Beispiel.
 
  • Gefällt mir
Reaktionen: DJMadMax
Leider ja, hab bei meinem alten Rechner schon stunden damit verbracht die optimalen Settings zu finden. Aber positiver Nebeneffekt ist, dass ich nun gezungen bin mich mit dem Thema Undervolting, Overclocking, PBO etc mal auseinanderzusetzen, schaden wird es nicht (hoffe ich 😅).
 
  • Gefällt mir
Reaktionen: DJMadMax
yAiz0 schrieb:
Hab allerdings nicht erwartet dass der X3D so viel besser performt.
Schon der 5800X3D hatte mit Tarkov ein best case Szenario mit 30-50% mehr fps gegenüber dem 5800X/5700X.
 
  • Gefällt mir
Reaktionen: DJMadMax
Das ist schon echt heftig, hätte ich so nicht erwartet. Kommt das nur durch den 3D-Cache? Oder was genau ist der Unterschied des X3D? Tarkov ist hier aber wahrscheinlich ebenfalls ein Sonderfall schätze ich oder ist die Leistung bei anderen spielen ebenfalls so deutlich besser?
 
Tarkov ist ein Extrembeispiel, das ist korrekt - aber die allgemeinen Auswirkungen von VSync bzw. limitierter Framerate lassen sich auch anderswo nachweisen:

1. Bild VSync 60 FPS
ARK_60fps.jpg

Das sind meine Standard-Einstellungen, mit denen ich ARK spiele. Ich befinde mich in meiner Basis, rund um mich sind Maschinen (S+/SS, RPEdditions, Additional Creatures, etcpp) verteilt, die alle am Arbeiten und tun und machen sind (Honigproduktion, riesiges Greenhouse oben auf dem Dach, und so weiter).

Die Einstellungen sind so gewählt, dass ich bewusst NICHT alles im Menü blind auf "EPIC" stehen habe - aber eben so, dass da, wo ich Abstriche gemacht habe, visuell praktisch kein wahrnehmbarer Unterschied besteht.

Im Bild habe ich zudem ein paar wichtige Werte der Systemperformance bzw. Temperaturen und Lüfterdrehzahlen markiert.

So kann ich ARK (und praktisch auch jedes andere Spiel) flüsterleise und dennoch performant und hübsch anzusehen genießen.

Jetzt das 2. Bild, kein VSync und knapp 200 FPS:
ARK_200fps.jpg

Und wieedr sind die wichtigsten Werte markiert. Um auf die ca. 200 FPS zu kommen, habe ich im Menü kurzerhand die Renderauflösung sowie Sichtweite und Schatten komplett heruntergeschraubt. Spielen würde ich so nicht, aber es ging einfach nur darum, eine möglichst hohe FPS zu erziehen (und auch mit den Min-FPS über den von dir genannten 144 FPS zu liegen).

Was sehen wir nun? Nicht nur die Grafikkarte arbeitet auf Hochtouren (200 Watt ist die maximal mögliche Leistungsaufnahme), sondern auch die CPU kommt - zumindest auf einem einzelnen Kern - ins Schwitzen.

Ja, ARK ist "popo" optimiert, nutzt kein gescheites Multicore und ist auch sonst performancetechnisch eher ein Sack voll Muscheln, aber ähnlich eben wie Tarkov sieht man auch hier, welch enorme Unterschiede sich in Sachen Leistungsaufnahme bei den Komponenten sowie eben auch bei den Temperaturen und den daraus resultierenden Lüfterdrehzahlen ergibt. Dass die knapp 2000 u/min der Grafikkartenlüfter deutlich hörbar (aber weit weg von unerträglich laut - zum Glück) sind, brauche ich gewiss nicht ewähnen.

Übrigens, auch ein wichtiger Punkt:
Elektrotechnik ist nicht nur eine Sache des Stroms, sondern auch eine Sache der Temperatur. Elektronische Bauteile (bzw. sogar Leiter/Kabel) benötigen/verbrauchen mehr Strom bei höherer Temperatur, da der Widerstand mit steigender Temperatur ebenfalls ansteigt. Dabei beißt sich dann die Maus irgendwann selbst in den Schwanz: Die Grafikkarten/CPU-Temperatur steigt und steigt, es wird immer mehr Strom benötigt, um die Leistung aufrecht zu erhalten und irgendwann kommt das Limit, bei dem gedrosselt wird (sei es leistungs- oder temperaturtechnisch). Von daher kann es sogar sein, dass in Extremfällen (Tarkov, erneut) eine Komponente bei nur 80% Auslastung schneller sein kann als bei 100% Auslastung (Throttling)
Ergänzung ()

yAiz0 schrieb:
Das ist schon echt heftig, hätte ich so nicht erwartet. Kommt das nur durch den 3D-Cache? Oder was genau ist der Unterschied des X3D? Tarkov ist hier aber wahrscheinlich ebenfalls ein Sonderfall schätze ich oder ist die Leistung bei anderen spielen ebenfalls so deutlich besser?

30-50% Mehrleistung des 5800X3D gegenüber dem 5800X (ohne 3D-Cache) sind schon eher die Ausnahme, aber auch in anderen Spielen lässt sich ein deutlicher, spürbarer Leistungszuwachs vernehmen:

ComputerBase-Test zum Ryzen 7 5800X3D

ComputerBase-Test zum Ryzen 7 7900X3D und 7950X3D
 
  • Gefällt mir
Reaktionen: ruthi91
DJMadMax schrieb:
Tarkov ist ein Extrembeispiel, das ist korrekt - aber die allgemeinen Auswirkungen von VSync bzw. limitierter Framerate lassen sich auch anderswo nachweisen:

1. Bild VSync 60 FPS
Anhang anzeigen 1339248

Das sind meine Standard-Einstellungen, mit denen ich ARK spiele. Ich befinde mich in meiner Basis, rund um mich sind Maschinen (S+/SS, RPEdditions, Additional Creatures, etcpp) verteilt, die alle am Arbeiten und tun und machen sind (Honigproduktion, riesiges Greenhouse oben auf dem Dach, und so weiter).

Die Einstellungen sind so gewählt, dass ich bewusst NICHT alles im Menü blind auf "EPIC" stehen habe - aber eben so, dass da, wo ich Abstriche gemacht habe, visuell praktisch kein wahrnehmbarer Unterschied besteht.

Im Bild habe ich zudem ein paar wichtige Werte der Systemperformance bzw. Temperaturen und Lüfterdrehzahlen markiert.

So kann ich ARK (und praktisch auch jedes andere Spiel) flüsterleise und dennoch performant und hübsch anzusehen genießen.

Jetzt das 2. Bild, kein VSync und knapp 200 FPS:
Anhang anzeigen 1339249

Und wieedr sind die wichtigsten Werte markiert. Um auf die ca. 200 FPS zu kommen, habe ich im Menü kurzerhand die Renderauflösung sowie Sichtweite und Schatten komplett heruntergeschraubt. Spielen würde ich so nicht, aber es ging einfach nur darum, eine möglichst hohe FPS zu erziehen (und auch mit den Min-FPS über den von dir genannten 144 FPS zu liegen).

Was sehen wir nun? Nicht nur die Grafikkarte arbeitet auf Hochtouren (200 Watt ist die maximal mögliche Leistungsaufnahme), sondern auch die CPU kommt - zumindest auf einem einzelnen Kern - ins Schwitzen.

Ja, ARK ist "popo" optimiert, nutzt kein gescheites Multicore und ist auch sonst performancetechnisch eher ein Sack voll Muscheln, aber ähnlich eben wie Tarkov sieht man auch hier, welch enorme Unterschiede sich in Sachen Leistungsaufnahme bei den Komponenten sowie eben auch bei den Temperaturen und den daraus resultierenden Lüfterdrehzahlen ergibt. Dass die knapp 2000 u/min der Grafikkartenlüfter deutlich hörbar (aber weit weg von unerträglich laut - zum Glück) sind, brauche ich gewiss nicht ewähnen.

Übrigens, auch ein wichtiger Punkt:
Elektrotechnik ist nicht nur eine Sache des Stroms, sondern auch eine Sache der Temperatur. Elektronische Bauteile (bzw. sogar Leiter/Kabel) benötigen/verbrauchen mehr Strom bei höherer Temperatur, da der Widerstand mit steigender Temperatur ebenfalls ansteigt. Dabei beißt sich dann die Maus irgendwann selbst in den Schwanz: Die Grafikkarten/CPU-Temperatur steigt und steigt, es wird immer mehr Strom benötigt, um die Leistung aufrecht zu erhalten und irgendwann kommt das Limit, bei dem gedrosselt wird (sei es leistungs- oder temperaturtechnisch). Von daher kann es sogar sein, dass in Extremfällen (Tarkov, erneut) eine Komponente bei nur 80% Auslastung schneller sein kann als bei 100% Auslastung (Throttling)
Ergänzung ()



30-50% Mehrleistung des 5800X3D gegenüber dem 5800X (ohne 3D-Cache) sind schon eher die Ausnahme, aber auch in anderen Spielen lässt sich ein deutlicher, spürbarer Leistungszuwachs vernehmen:

ComputerBase-Test zum Ryzen 7 5800X3D

ComputerBase-Test zum Ryzen 7 7900X3D und 7950X3D
Vielen lieben Dank für diesen Umfangreichen Beitrag, ihr helft mir wirklich sehr das ganze Thema besser verstehen zu können, vielen Dank dafür! Okay, dann ist es scheinbar wirklich Sinnvoll VSync zu aktivieren. Ich werde versuchen die Settings so einzustellen dass ich die 144 FPS mit möglichst wenig Leistung oder wärme zu erreichen und werde dann ebenfalls VSync aktiviere. Generell bin ich ja auch ein Freund davon meine Hardware nicht auf Anschlag laufen zu lassen 😁
 
  • Gefällt mir
Reaktionen: DJMadMax
yAiz0 schrieb:
Okay, dann ist es scheinbar wirklich Sinnvoll VSync zu aktivieren
Bitte nicht pauschal auffassen. In MEINEM Fall und in den von MIR gespielten Spielen stört mich VSync überhaupt nicht. In manchen Games kann es leider (engine-seitig) zu spürbaren Inputlags kommen, was natürlich bei kompetitiven Spielen schlecht ist. Wenn dein Monitor eine Syncing-Methode beherrscht (G-Sync/FreeSync), dann nutze diese - und limitiere die FPS deines Spiels künstilich ein wenig darunter.

Sprich: wenn dein Monitor 144 Hz kann, dann aktiviere die entsprechende Syncing-Methode deiner Grafikkarte und stelle die FPS auf z.B. 140 FPS fest ein. Würdest du sie auf exakt 144 FPS stellen, kann es trotz G- und FreeSync zu Tearing kommen, wenn man ein, zwei FPS "über" dem 144 HZ-Limit deines Monitors gerendert werden.

Das trifft aber NICHT auf VSync zu! Bei VSync handelt es sich ja um eine reine Software-Geschichte, hier ist keinerlei zusätzliche FPS-Begrenzung deinerseits notwendig.

yAiz0 schrieb:
Generell bin ich ja auch ein Freund davon meine Hardware nicht auf Anschlag laufen zu lassen
Es geht ja gar nicht darum, dass das der Hardware schaden könnte. Es ist eigentlich schon immer problemlos möglich, Consumer-Hardware viele Jahre dauerhaft auf 100% zu betreiben ohne Mängel. Das Problem ist eben viel mehr die Stromrechnung und die Abwärme, die in gleichzeitig lauteren Lüftergeräuschen resultiert.
 
Falls du doch mit vsync spielen möchtetst und nicht an 144fps ran kommst. Kannst du auch unter Anzeige -> erweiterte Anzeige die hz zahl deines Monitors ändern. Zumindest geht das bei meinem Monitor unter win11.
 
Also ich hab am Wochenende mal VSync getestet und hatte leider so ein Flackern im Bild. Bei stehendem Bild war davon nicht zu sehen aber sobald es Bewegung gibt im Bild fängt es an zu flackern, bpsw. beim scrollen hier im Forum. Weiß jemand was man dagegen tun kann?
 
Zurück
Oben