RTX 3070 Framelimit 60 FPS/ Verbrauch?

Piecemaker schrieb:
Mit 160 Watt landest du unter 3060 Ti Niveau.
Echt? Meine RTX 3070 war mit optimierten ~145W immer noch so schnell wie eine stock RTX 3070.
Wie @HisN schon desöfteren angeführt hat...max bedeutet all in...und dafür sind die Grafikkarten einfach zu schwach. Es wird immer eine Einstellung geben die eine Grafikkarte in die Knie zwingt.
Ausserdem haben Spiele mit den Reglern ein mächtiges Werkzeug, mit denen man Spiele auch ohne Augenkrebs spielen kann. Den Verbrauch drückt man so ganz nebenbei.
Einmal Stock....nur Karte optimiert....Spiel und Karte optimiert
a.pngb.pngc.png
d.jpge.jpg
f.jpg
g.pngh.pngi.png

Wenn Cyberpunk für Dich ausschlaggebend ist würde ich über Karten unter einer RTX 4070 nicht nachdenken.
Da muss man für ~600€ noch die wenigsten Kompromisse eingehen.
 
Zuletzt bearbeitet:
Wenn du auf Effizienz Wert legst, musst du auf die 4000er Generation zurückgreifen. Die sind bis zu 100% effizienter als die 3000er Generation. Auch skaliert die 4000er Generation besser mit Teillast und Framelimit.

Von dem was du schreibst und deiner Auflösung würde ich auf min. 12GB gehen. Also die 4070. Zusammen mit DLSS3 ist auch bei AAA-Titeln jede Menge drin und die TDP kannst du da easy auf 150-170 Watt limitieren.
 
  • Gefällt mir
Reaktionen: Odessit
mannefix schrieb:
wegen des Stromverbrauchs
Warum?
Möchtest du möglichst effizient Spielen (fps/Watt), möchtest du einen möglichst leiser PC, möchtest die Stromrechnung möglichst gering halten?

Wenn du dein Ziel angibst, kann dir vermutlich besser geholfen werden.

Und deine Anforderung ist dann "immer stabile 60fps in WQHD"? Oder kommen die 60FPS nur von der Stromsparüberlegung?
 
Ein PV-Panel auf´m Dach und gut ist. Da kannst den 60FPS Limit weglassen.
 
Ayo34 schrieb:
Wenn du auf Effizienz Wert legst, musst du auf die 4000er Generation zurückgreifen. Die sind bis zu 100% effizienter als die 3000er Generation. Auch skaliert die 4000er Generation besser mit Teillast und Framelimit.
jup, sehe ich genau so

Wenn man bei der 3000-er Serie den Stromhunger zügeln will, sollte man UV (0.07- bis 0.1V) betreiben, Powertarget 70-80% und max.FPS je nach Spiel reduzieren.
Meine RTX 3080 habe ich so von max. 320 Watt auf max. 200-220 Watt gebracht bei geringfügigen FPS-Verlusten, verbunden mit geringeren Temperaturen.

Stand heute würde ich eine aus der 4000-er Generation mit ausreichend Speicher nehmen.
 
DaHell63 schrieb:
Echt? Meine RTX 3070 war mit optimierten ~145W immer noch so schnell wie eine stock RTX 3070.
Es kommt auf das Game an, die Einstellungen und die Silicon Lottery.

Ich schaffe 1930MHz mit 220 Watt und per UV mit ~180 Watt. Geh ich weiter runter, fallen auch die MHz um -100, oder mehr. Mit 160 Watt schaff ich kein RTX 3070 Niveau mehr.
 
Auch für mich klingt es nach einem Verlangen nach möglichst hoher Effizienz. Den Testberichten nach wäre so die 4060 Ti "empfehlenswert". Aber das, was du da an Stromersparnis hast, wird seitens der Hersteller auf den Preis draufgeschlagen, wodurch du dann summa summarum sogar noch draufzahlst, da die Grafikkarte wohl kaum pi mal Daumen 10 Jahre Volllast durchhält.

Also wenn das Ziel ist wenig Strom zu verbrauchen, aber viel mehr Geld auszugeben, dann kannst du das so machen.
 
Sagen wir die Karte verbraucht 100 Watt Gleichstrom. Dann Rechnet man grob die Sache wie folgt , da der Zähler mit Wechselstrom arbeitet , 1 Watt sind da in einer Stunde 1Wh ( ×1000 )
Ein Netzteil gibt die Ausgabeleistung an , in Gleichstrom , was dann 3600 Sekunden sind.
1 Stunde hat 3600 Sekunden ! 1Watt=1W/s=1Joule
Lassen wir die Effizienz des NTs weg !
Dann ist die Umrechnung von 1000 zu 3600 = 3,6 !
Wenn die Karte 100 Watt benötigt , und eine Stunde läuft , ist die Umrechnung wie folgt.
100÷3,6=27,8 ! Der Zähler würde 27,8 Watt messen , was dann 0,0278 kWh , in einer Stunde wären. Wenn ich einfach mal grob schätzen würde , bei einem NT mit 85% Effizienz , kann man 0,03kWh sagen , was auf dem Zähler , nach einer Stunde , stehen würde , bei 200 dann 0,055kWh , bei 220 dann 0,061 , und 270 dann 0,075kWh !
Bei uns kostet eine kWh 40 Cent , wegen diesen Idioten von Politik.
1kWh÷0,075Watt=13,3h Volllast
Bei 220 dann 16,4h. Sagen wir unser Netzteil ist Mist , mit 80% , kommen wir auf ca. 13 Stunden Volllast der Grafikkarte
Bei 13 Stunde GPU Volllast sind das 32,5 Cent , bei 220 Watt , bei einem bekloppten Strompreis von 40 Cent pro Kilowattstunde , auf dem Zähler !

Aber keine Sorge , gleich tauchen hier Idioten auf , die nicht glauben , das man 10×1000 Watt PCs , an einer Steckdose betreiben kann !
Ergänzung ()

Ich lass noch etwas Sarkasmus da !
" Hey alter , weisst du wie heiss so ein 15 Watt Lötkolben wird ?! "
 
Zuletzt bearbeitet von einem Moderator:
Zurück
Oben