Test Nvidia GeForce RTX 4080 im Test: FE und Custom-Designs von Asus, MSI & Zotac im Vergleich

Ich habe mal eine Frage an die nVidia Experten hier. Es ist immer die Rede davon, das man einen "Frame Rate Limiter" einsetzen kann, damit man noch mehr Energie sparen kann.

Geht das in der nVidia Software fix einzustellen oder wie läuft das? Ich hatte die letzten Jahre nur AMD Karten, dort kann man via "Chill" halt Limits nach oben UND unten setzen.

Sorry für die vermutlich doofe Frage, aber ich steige nun auf eine 4080 um, damit ich für die nächsten 3-4 Jahre Ruhe habe :)
 
CastorTransport schrieb:
Geht das in der nVidia Software fix einzustellen oder wie läuft das? Ich hatte die letzten Jahre nur AMD Karten, dort kann man via "Chill" halt Limits nach oben UND unten setzen.:)

Du kannst über den Treiber ein Limit nach oben einstellen, entweder global oder per Spiel, allerdings kannst du das nicht mal eben schnell umschalten. Wenn du währenddessen ein Spiel offen hast, musst du dieses einmal beenden damit beim nächsten Start der geänderte Limiter greift.

Wenn du sowieso immer ein festes Limit haben willst, ist das aber nicht weiter schlimm, ansonsten empfehle ich, einfach den RTSS als Limiter zu nehmen, da kannst du dir nen Hotkey belegen mit dem du den Limiter ein und ausschalten kannst.
-> Wichtig hierbei: Der RTSS Limiter funktioniert nicht mit DLSS3 FG, dann wird aus dem Spiel eine Ruckelorgie. Wenn man FG nutzt, muss man den Limiter vom Treiber nehmen, oder alternativ einen Ingame Limiter sofern das Spiel einen hat.
Wobei FG dann das eingestellte Limit verdoppelt, während beim Limit über den Treiber FG genutzt wird, um genau auf dieses Limit zu kommen.
Bedeutet bei einem 60FPS Ingame Limit hättest du dann 120FPS und bei einem 60FPS Treiber Limit eben 60 und es werden nur 30FPS nativ berechnet.

Dafür spart das gut Strom, wenn man auslotet, ab wann es für einen flüssig genug ist.

A Plague Tale Requiem - 1440p Ultra + DLSS Quality

60FPS nvCP Limit
Ohne FG -> 160W -> flüssig
Mit FG (30FPS nativ) -> 90W -> etwas hakelig

80FPS nvCP Limit
Ohne FG -> 210W -> flüssig
Mit FG (40FPS nativ) -> 110W ->leicht flüssiger als 60FPS ohne FG <- mit diesem Setting habe ich das Spiel durchgespielt

120FPS nvCP Limit
Ohne FG -> 295W -> flüssig
Mit FG (60FPS nativ)-> 220W -> flüssig
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: VR 4K etc. und CastorTransport
@Taxxor Danke für die Infos!

Generell würde ich mein Limit am Monitor (144Hz) festmachen, da ich fast nur COD:MW2 und BF2042 spiele. Auflösung ist 3440x1440.

Wie komme ich denn an die Infos mit dem Verbrauch in Watt?
 
CastorTransport schrieb:
Wie komme ich denn an die Infos mit dem Verbrauch in Watt?
Einfach die Sensoren mit einem beliebigen Tool auslesen.
Mit den aus meiner Signatur kannst du auch direkt Benchmarks machen, wo du dann die Verbrauchswerte mit loggen kannst^^

Rein anschauen kannst du sie auch über den Afterburner, den du ja sowieso brauchst, um die Karte zu tweaken(Undervolting, Power Limit begrenzen, Lüftersteurung etc.)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: CastorTransport
Moin,

weiß jemand, ob die 4080 auch mit nur zwei 8-Pin-PCIe-Steckern am Adapter anspringt? 🤔
Hab eben schon diverse Testberichte und YT-Videos durchgeklickt, aber irgendwie nix gefunden. Oder war zu blind.

Bei max. 320 W ist der dritte eigentlich überflüssig mMn - meine 3080 hat auch nur zwei, und das reicht sowohl nach Spec der Karte als auch nach meinem HWInfo64 unter Gaming-Last im Extremfall sogar bis 350 W, wenn ich die Karte nicht undervolte...

Will irgendwie ungern ein drittes Kabel durch mein Gehäuse ziehen, erst recht, weil ich erstmal nur testen will und die Karte in zwei Wochen vielleicht durch ne 7900 XTX ersetzt wird, die mit zweien auskommt.

Die 4090 springt ja laut Test auch mit drei statt vier Steckern an.

Thx :)
 
  • Gefällt mir
Reaktionen: ComputerJunge
Vendetta schrieb:
Bei dem Käufer der 2400 Euro für die Strix 4080 verliere ich den Glauben an die Menschheit.
Wieso, das ist doch normal, da die 4090 Strix momentan ab 3200 (Dreitausendzweihundert!) Euro aufwärts verkauftscalped wird.

....

Ich würde gerne Ironitags setzen.

Und ich hatte schon Magenziehen bei 2600 Euro...
 
  • Gefällt mir
Reaktionen: Ragnarök88 und Vendetta
Laphonso schrieb:
Wieso, das ist doch normal, da die 4090 Strix momentan ab 3200 (Dreitausendzweihundert!) Euro aufwärts verkauftscalped wird.
Glauben die Leute der Kühler wäre aus Palladium oder was :D

Diesen Strix-Kult werde ich nie verstehen, ist zwar sicher ne gute Karte und der Kühler ist nen Hunni Aufpreis wert aber nicht 1000+ Euro...
 
  • Gefällt mir
Reaktionen: Laphonso
Woody17 schrieb:
Sie hat ja 60%! mehr Recheneinheiten, liegt in Benchmarks aber nur ca. 25% vorn. Das ist aus meiner Sicht auffallend wenig Zugewinn. Limitiert hier etwa der Cache?
Shader skalieren mit steigender Menge generell immer schlechter, weil sie ja auch alle gleichzeitig ausgelastet werden müssen, um die volle Leistung zu bringen, die man anhand der TFLOPs vergleichen könnte.
Dass das nicht so gut funktioniert sieht man ja am Verbrauch der 4090, der selten überhaupt über 400W bleibt.

Und ich sehe keine 25%, sondern +34% in Raster bzw 38% in RT
 
  • Gefällt mir
Reaktionen: Ragnarök88
Ok, dann sind es 34-38% aus konkret auch 68% mehr Recheneinheiten Shader/RT/TensorCores.

In vielen Titeln sind es aber eben auch nur 20-25%.

Gibt es überhaupt IRGENDEINE Situation, außer die 16Gb der 4080 reichen nicht mehr, wo wirklich mal 68% Mehrleistung angekratzt werden? Habe noch keine gefunden.
Ergänzung ()

Nehmen wir mal den Blender Benchmark:

Die 3090ti holt aus 82% mehr Shadern als die 3070 80% Mehrleistung.

Die 4090 holt aus 68% mehr Shadern als die 4080 nur müde 30% Mehrleistung.

Ich habe fast den Eindruck, die 4090 hat nur ca. 13K Shader des AD102 aktiviert um mehr Spielraum für eine 4090ti zu lassen.

Das würde viele der Ergebnisse viel plausibler machen.
 
Zuletzt bearbeitet:
Woody17 schrieb:
Die 3090ti holt aus 82% mehr Shadern als die 3070 80% Mehrleistung.

Die 4090 holt aus 68% mehr Shadern als die 4080 nur müde 30% Mehrleistung.
Die 4090 wird einfach am Speicherinterface verhungern. Sie hat ja nur die gleiche Bandbreite zur Verfügung wie die 3090ti. Die 3090ti hat aber z.B. mehr als die doppelte Bandbreite der 3070. Die 4090 hat dagegen lediglich 40% mehr Bandbreite als die 4080.
 
  • Gefällt mir
Reaktionen: Woody17
branhalor schrieb:
weiß jemand, ob die 4080 auch mit nur zwei 8-Pin-PCIe-Steckern am Adapter anspringt? 🤔
Hab eben schon diverse Testberichte und YT-Videos durchgeklickt, aber irgendwie nix gefunden. Oder war zu blind.
Exakt meine Frage und gefunden habe ich auch keine direkte Antwort (wobei ich dazu keine YT-Videos abgrase).

Indirekte Hinweise (u. a. https://nvidia.custhelp.com/app/ans.../geforce-rtx-40-series-&-power-specifications) habe ich aber so interpretiert, dass im Falle der 4080 alle 3 8-Pin-PCIe-Stecker belegt sein müssen. Dann wird das wohl doch (erst einmal) nichts mit einer 4080.

Zusatzfrage: Kommt man bei diesen Riesentrümmern (egal, ob von AMD oder nVidia) überhaupt noch mit Fingern an den PCIe-Slot-Arretierungshebel, sobald die Karte eingebaut ist?
 
ComputerJunge schrieb:
Exakt meine Frage und gefunden habe ich auch keine direkte Antwort (wobei ich dazu keine YT-Videos abgrase).

Zusatzfrage: Kommt man bei diesen Riesentrümmern (egal, ob von AMD oder nVidia) überhaupt noch mit Fingern an den PCIe-Slot-Arretierungshebel, sobald die Karte eingebaut ist?

Ich hab zwischenzeitlich eine ausprobiert, und die brauchte tatsächlich alle drei Stecker.
Mit zweien gingen der PC und die Karte zwar an, alles leuchtete schön - aber Null Bild auf dem Monitor.

@Deine Frage:
Bei der Gainward Phantom und in meinem Corsair-740-Gehäuse war es tatsächlich kein Problem, ging genauso leicht da ran zukommen, wie bei der 3080.
Das größere Problem war, daß die Phantom 4080 echt ein Möbel ist - zwei Millimeter mehr, und ich hätte sie selbst in mein Gehäuse nicht mehr eingebaut bekommen. Bzw. hätte dafür den einen Front-Gehäuselüfter ausbauen müssen.
 
  • Gefällt mir
Reaktionen: ComputerJunge
ComputerJunge schrieb:
Zusatzfrage: Kommt man bei diesen Riesentrümmern (egal, ob von AMD oder nVidia) überhaupt noch mit Fingern an den PCIe-Slot-Arretierungshebel, sobald die Karte eingebaut ist?
Der Hebel ist bei mir beim Ausbau der 4080 abgebrochen. Liegt vielleicht auch am Board aber mit dem Finger komme ich da nicht ran.
Ich löse den Hebel mit einem Kunststoffwerkzeug. Hat wahrscheinlich nicht gereicht, da die 2kg-Karte reichlich Druck darauf ausübt, im liegenden Zustand des PCs.
Ist mit meinen anderen Karten und Boards ähnlich gewesen aber das Gewicht der Karten ist neu.
 
  • Gefällt mir
Reaktionen: ComputerJunge
Danke Euch beiden.

Dann wird das wohl Nichts mit einer 4800. Mein 550W-Netzteil tausche ich nicht aus, obwohl es den "Saft" bei reduziertem Powerlimit locker liefern könnte.


Die ersten Benchmarks der 7900er mit Blender 3.4 sind leider (wie erwartet) eher meh, daher meine Überlegung.

1670691883420.png

https://opendata.blender.org/benchm...PI&blender_version=3.4.0&group_by=device_name
 
Die Kosten für ein neues Netzteil verschwinden doch fast, bei der Anschaffung einer 4080 oder hast du keine Lust alles umzubauen?
 
mospider schrieb:
Der Hebel ist bei mir beim Ausbau der 4080 abgebrochen. Liegt vielleicht auch am Board aber mit dem Finger komme ich da nicht ran.

Bei meinem Asus-Board ist das richtig Aids und man bekommt die Karte nicht so richtig raus und man kommt auch schlecht an den Hebel, weil die Backplate davor ist. Das ganz kleine erreichbare Stück lässt sich nicht drücken. Habe mir schon 3 oder 4x den Hebel rausgefriemelt und ihn dann mittlerweile weggelassen. Karte ist eine 2080S, das 2kg-4-Slot-Monstrum braucht es nicht.
 
ComputerJunge schrieb:
Danke Euch beiden.

Dann wird das wohl Nichts mit einer 4800. Mein 550W-Netzteil tausche ich nicht aus, obwohl es den "Saft" bei reduziertem Powerlimit locker liefern könnte.

Ich habe die 4080 mit reduziertem Power Limit auf 85% betrieben, trotz dreier PCIe-Stecker. Max-Load unter VR-Gaming-Last waren 270 Watt oder so, meistens ein gutes Stück darunter.
Wenn es also nur daran liegt...
Oder hat Dein Netzteil keine dritte Buchse?

Ansonsten warte ich allerdings auch noch auf die 7900 XTX, bevor ich eine endgültige Entscheidung treffe. Die 4080 ist nach ner Woche Tests und Benchmarks daher auch erstmal zurückgegangen.
In der Preisklasse will ich das Optimum für mein Geld ;)


@mospider
Mein Desktop-Gehäuse "liegt", d.h. das Mainboard ist horizontal, die Grafikkarte steckt senkrecht.
Evtl. macht das bei diesen Monstren grundsätzlich Sinn, das Gehäuse für den Ausbau flachzulegen, dann läuft man weniger Gefahr, daß einem das Gewicht die Karte beim Lösen sofort nach unten zieht und dabei was abbricht.
 
  • Gefällt mir
Reaktionen: ComputerJunge
Körperklaus schrieb:
Die unattraktivste 80er aller Zeiten, meiner Meinung nach - nicht zuletzt wegen des Preises.
Warten wir den morgigen Launch der AMD Karten ab, ob sich diese Einschätzungen wirklich als real herausstellen, oder ob sie nicht Verschwörungstheorien waren.
 
Zurück
Oben