Test Nvidia Laptop GPUs im Test: GeForce RTX 4050, 4060, 4070, 4080 und 4090 im Vergleich

Hallo,

ich hätte hier gerne eine RTX4000 als Nachfolger für meine 970M 6GB.

Reicht da die 4050 oder doch lieber die 4060?
Ziel: God of War, cyberpunk 2077 & horizon zero dawn in FH zu zocken.
60 FPS sind hier für mich ok.


Aktuell hat mein Clevo ein 60Hz G-Sync Monitor.
Ist da ein 144Hz ohne G-Sync „schlechter“?

Hilft hiet DLSS bzw. FG etwas.

Hab dies damals 2016 gekauft.

Mein PC/Laptop-Wissen Jahr 2022 ist hier jetzt gleich 0.


Danke und Grüße
 
Ghostshield schrieb:
Aufn Papier ist meine 3060 Laptop der 4060 überlegen.

Bei einem gutem Exemplar der alten Generation gegen ein gutes Exemplar der neuen Generation, ist das so. Da der RTX 0815-60 jetzt mit dem kleinerem Chip der aktuellen Generation ersetzt wurde.

Die Ausbeute/ Qualität der Chips bei Samsung war gar nicht so schlecht und viele GPUs liefen weit unter ihren Möglichkeiten, weil Nvidia ein ziemlich konservatives Setting für die GPUs geplant hatte oder planen wollte oder planen musste.

Ich kann nicht in Jennsons Kopf gucken. :evillol:

Die schon bald erscheinende 4060Ti mobile mit 106er Chip wird dann ein nächster Kaufanreiz sein und eine 4070Ti mobile mit 104er Chip, kann ich mich auch jederzeit vorstellen. :heilig:

Bei AMD sieht es in dem Segment aktuell nicht wirklich gut aus, da kann Nvidia mit angezogener Handbremse fahren und trotzdem gutes Geld verdienen.

mfg
Ergänzung ()

z0k3r schrieb:
Reicht da die 4050 oder doch lieber die 4060?

4060 minimum.

https://www.computerbase.de/2023-02...test/#abschnitt_fhdbenchmarks_mit_und_ohne_rt

Ich würde sogar, bei gutem Preis, über ein 3070 Book nachdenken. Das ist dann so eine "coinflip" Entscheidung, da man nicht genau sagen kann, was die Zukunft bringt.

Explizit ein FHD Book zu kaufen, hilft dann den Preis zu senken. :heilig:

Und kaufe ein 17 Zoll. Du wirst es nicht bereuen, wenn du damit zocken willst. Die kleineren schreien nur rum.

mfg
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: TeufelsGeneral, Jan und z0k3r
Ghostshield schrieb:
Wenn ich jetzt 3840 @ 2100MHz vs 3072 @ 2600 MHz nehme, wer ist jetzt schneller?
Aufn Papier ist meine 3060 Laptop der 4060 überlegen.
Gibt ja auch bei GPUs die IPC. Darf man nicht verachten. Es geht nicht stur nach CU/SU-Anzahl und Takt.
 
Doch ipc bei gpu ist seit einführung von nativen fp32 passe.
bei amd wird immer die theoretische Leistung auf softwarebasisi in wave64 also fp64 emuliert
rdna3 ist so ein Wundertreiber vonnöten damit die cu ausgelastet werden bei nvidia ist es eher native shader die in den sm fp32 rechnen und das sind maxed 80 +weitere 16fp32 durch software oder die mitte davon =88 fp32 pro sm
Und ja es geht stur nach Takt. wenn bandbreite sowie die pure rop leistung reichen.
ne ipc gibt es bei gpu nicht. Diese sind strikt linear.
 
SVΞN schrieb:
Die mobilen Ableger der RTX 4090 und 4080 beeindrucken mich insbesondere mit ihrer Effizienz. (...)
In Sachen Effizienz ist Nvidia mit Ada ein richtig großer Wurf gelungen.

Lass uns das nochmal ohne Scheuklappen betrachten und relativieren:

RTX 4090 Desktop ist das Maß der Dinge (100%).
RTX 4090 Laptop pendelt (mit RT) knapp unter dem Niveau der RTX 3090 Desktop. (~66%).

Ich bekomme also 1/3 weniger Leistung mit der besten verfügbaren Laptop GPU gegenüber der gleichnamigen Desktop Variante. 1/3 ist enorm viel. Bei genauso hohen oder noch höheren Preisen (3600€ aufwärts, hallo?!)

Klar ich will hier nicht Apfel mit Birnen vergleichen im Sinne von Desktop und Laptop. Aber wenn wir von beeindruckender Effizienz und "großer Wurf" sprechen, dann kann man die Referenz momentaner Grafikleistung (4090 Desktop) nicht einfach außer acht lassen!

Um wirklich "effizient" und ein "großer Wurf" zu sein, hätte die 4090 Laptop auch tatsächlich annähernd die selbe Leistung wie die 4090 Desktop aufbringen müssen und zwar bei weiterhin maximal 150+25W! Denn das ist es was das Wort "effizient" bedeutet. Mehr Leistung bei gleichbleibenden Energiebedarf!

Die Desktop Modelle ziehen ihren Geschwindigkeitsvorteil ausschließlich durch höheren Energieverbrauch.
Laptops können physisch bedingt aber nie soviel Energie verbraten wie die Desktop Modelle (~160W vs ~400W+).

Wenn also die RTX 4000 generation Effizient WÄRE, dann wären die Laptops bei weitaus geringerem Energieverbrauch, genauso oder fast so schnell wie ihre Desktop-Pendanten. Stattdessen geht hier die Kluft bei der 4000er Generation noch weiter auseinander! Das war schonmal weitaus besser bei vorherigen Generationen!

Das hier im oben genannten Beispiel von 4090 Laptop vs 4090 Desktop ein Unterschied von 33% liegt, schreit geradezu wie INEFFIZIENT diese Generation doch ist! Die Top-Leistung ist nur mit einem lächerlichen Vielfachen des Energieaufwands möglich!

Ich wählte den begriff Scheuklappen deswegen, weil zusehens mehr die Laptop Grafikleistung alleine für sich betrachtet wird, wie eine Insel die nur für sich existiert, bei der die Effizienz und Leistung unter sich besprochen bzw verglichen wird und nicht der aktuelle Gesamt-Leistungsstatus der auch Desktop Varienten mit einschließt.

Für mich ist klar, die RTX 4000 Laptop generation ist ein Witz, ein Reinfall. Die 4080/4090 sind preislich ein Mittelfinger an die Spieler und die 4050/4060/4070 sind von den Specs und der Leistung ein Reinfall, v.a. im direkten hardware Vergleich zur 3000er Serie.

So nicht Nvidia. Entweder kommt da noch was mit Ti und viel besseren Preisen, oder das wars und wir schauen mal in 2 Jahren weiter ob ihr noch Grafikkarten loswerdet bei den Preisen und Specs.

Die Platform PC/Laptop als Spielebasis leidet darunter und schrumpft. Zusammen mit offenbar nur noch kaputten und unoptimiert erscheinenden AAA-Spielen, geht das langsam alles den Bach runter.

Wir sehen uns in der Retro-Spiele-Blase der Patient Gamers.
 
Cirael schrieb:
Lass uns das nochmal ohne Scheuklappen betrachten und relativieren (…)

Da braucht man weder Scheuklappen abnehmen, noch irgendwas relativieren.

Die 4090 Laptop GPU ist mit 175 Watt beinahe genauso flott unterwegs wie eine 3090 Desktop GPU mit 350 Watt und lässt auch eine 3080 Ti und 6900 XT locker hinter sich.

Also ich nenne das extrem effizient.
 
  • Gefällt mir
Reaktionen: Nuklon und Humbertus
Der Vergleich hinkt aber! Denn damit klammerst du den Architektur-Fortschritt zwischen den Generationen aus. Die 3090 Desktop hat ihre Leistung mit älterer Architektur bei 350W. Wieviel verbrauch hätte sie mit der aktuellen Architektur? Dieser Wert wäre dann zu Vergleichen mit der 4090 Laptop.

Ich will ja die aktuelle Laptop Generation nicht mit einer 2 Jahre alten Architektur vergleichen wenn es um Effizienz geht, sondern mit dem was aktuell verfügbar und möglich ist. Klar ist ein neues Tesla Modell effizienter als ein Tesla Modell von vor 5 jahren... überspitzt formuliert. das ist nicht der Ansatz.
 
Cirael schrieb:
Das hier im oben genannten Beispiel von 4090 Laptop vs 4090 Desktop ein Unterschied von 33% liegt, schreit geradezu wie INEFFIZIENT diese Generation doch ist! Die Top-Leistung ist nur mit einem lächerlichen Vielfachen des Energieaufwands möglich!
Ich vermute, es handelt sich hier um Sarkasmus / Ironie / Satire?
 
  • Gefällt mir
Reaktionen: Nuklon
SVΞN schrieb:
Also ich nenne das extrem effizient.
Hätten sie bei dem Preis auch den Destkop 4090 Chip genommen und auf 150+25Watt gebracht müsste das ganze doch sogar noch deutlich besser aussehen oder? Wäre für den Preis ja auch durchaus angemessen.
Oder läuft die 4080 hier schon Effizenter als die 4090?
 
Sunjy Kamikaze schrieb:
Hätten sie bei dem Preis auch den Destkop 4090 Chip genommen und auf 150+25Watt gebracht müsste das ganze doch sogar noch deutlich besser aussehen oder?...
Ich denke mal, dass das weniger effizient wäre, wegen dem notwendigerweise größeren Speicherinterface + mehr VRAM (24 statt 16).

Die Shaderanzahl alleine bringt wohl nicht so viel. Schaue dir die 4070 Laptop an. Die hat +50 % mehr Shader und da kommt gegenüber der 4060 (gleiches Speicherinterface) kaum Mehrleistung raus und das bei jeder TDP Stufe.
 
DerRico schrieb:
Ich vermute, es handelt sich hier um Sarkasmus / Ironie / Satire?
Zugegeben, wann eine Grafikkarte als besonders Effizient betrachtet wird, liegt im Auge des Betrachters, aber ich möchte drauf aufmerksam machen, dass es drauf ankommt was man als Grundlage heranzieht um eine Aussage zur Effizienz zu treffen und diese dann zu deuten.

In anderen Worten:
Man kann sagen: natürlich ist eine 4090 Laptop wahnsinnig effizient, wenn sie mit nur ~150W annähernd die Leistung einer 3090 Desktop erreicht. Damit vergleichen wir aber Architekturgenerationen.

Bleiben wir bei der Betrachtung nur in der aktuellen 4000er Generation und schließen alle Modelle mit ein (Desktop+Laptop) und sehen uns dann Leistung und Stromverbrauch an, dann sieht die Effizienz bei der schnellsten Laptop Grafikkarte (4090 Laptop) gegenüber der schnellsten Desktop Grafikkarte (4090 Desktop) nicht gut aus, da sie 1/3 langsamer ist. Ältere Laptop Generationen hatten deutlich weniger Rückstand auf die beste GPU ihrer Generation.

Man kann jetzt entweder sagen, super die 4090 Laptop ist effizient, weil sie "nur" 1/3 langsamer ist, aber nur halb soviel strom verbraucht wie die 4090 Desktop (wir reden immer noch von f*cking 175W+ in einem laptop das gekühlt werden muss!).
Oder man kann sagen, effizient wäre die 4090 Laptop dann, wenn sie bei 175W+ auch nur 1-2% langsamer als die 4090 Desktop wäre.

Rein von der Leistung betrachtet (und DLSS3 mal ausgeklammert) kauft man sich mit der 4090 Laptop nur eine 3090 Desktop, aber zum wuchernden Preis eines 4090er Flagschiffs.
Warum ist das so? Weil die 4000er Desktop grafikkarten ihren Leistungsvorsprung nur durch aberwitzigen Stromverbrauch jenseits der 300W realisieren können. Könnten sie das auch bei unter 200W oder sogar 150W, dann wären sie in meinen Augen effizient und dann würden die Laptop Grafikkarten bei gleicher Bezeichnung auch nicht eine ganze Generation hinterherhinken.
Das die 4050/60/70 noch weiter abfallen, bei trotzdem hohen Stromverbrauch, steht dann in meinen Augen in überhaupt keiner Relation mehr zum Preis. Man kauft sich quasi eine mittelklasse-Grafikkarte der letzten Generation zum Einführungspreis der aktuellen Generation. Achso, DLSS3 FG wirds schon richten hör ich da irgendwo von weit her abwink ;)
 
Zuletzt bearbeitet:
Vielleicht verstehe ich es nur nicht, aber warum sollte die gleiche GPU im selben Prozess im Laptop schneller sein?
War doch noch auch nie so? Die jeweilige Generation war im Laptop langsamer, weil Takt / Speicher / Chip beschnitten mussten wegen der Hitze / des Stromverbrauchs.

Die Leistung oder FPS / Watt waren noch nie so hoch wie jetzt bei der 4090 mobile, also "effizient wie nie". Absolut gesehen also "effizient" und zwar "sehr".

Wenn die 4090 Laptop so schnell wäre wie die 4090 Desktop mit 175W, würde man aus diesem Superchip eine Variante "4090 Super" mit 300+Watt machen, die dann auch wieder schneller wäre und Deine Argumentation "ineffizient" würde wieder greifen.

Man dreht sich also im Kreis mit Deiner Argumentation, solange immer alle die schnellste / aktuellste Technik bekommen. Das liesse sich ja nur auflösen, wenn es physikalisch möglich wäre einen Chip zu schaffen, der nur bis 175W super extrem sparsam ist und danach über seinem Sweetspot läuft. Den würde man dann aber nicht in den Desktop packen sondern einen anderen (grösseren), der mit mehr Watt auch etwas anfangen kann und schon wäre der Abstand wieder da.
 
DerRico schrieb:
Vielleicht verstehe ich es nur nicht, aber warum sollte die gleiche GPU im selben Prozess im Laptop schneller sein?
War doch noch auch nie so? Die jeweilige Generation war im Laptop langsamer, weil Takt / Speicher / Chip beschnitten mussten wegen der Hitze / des Stromverbrauchs.
wäre es nicht als "besonders effizient" zu bezeichnen, wenn die Laptop GPU trotz ihrer Beschneidungen annähernd gleiche Leistung wie ihr Desktop Pendant einfahren könnte? Durch bessere Architektur, kleinerer Herstellungsprozess, etc.

gar keine frage, laptop GPUs waren bisher immer langsamer als ihre desktop varianten, der Abstand variierte jedoch und ist momentan besonders groß weil die Desktop Varianten soviel mehr Strom als früher verbraten dürfen. Ich erinnere mich noch grob mit der GTX 980 laptop im vollausbau war man am ende fast so gut wie gleich auf mit dem Desktop.

Aber ich stimme dir zu und kann es nachvollziehen. Desktop varianten, egal wie effizient sie wären, würden trotzdem immer weiter im stromverbrauch gepusht, einfach weil es dort möglich ist, nicht weil es unbedingt sinnvoll ist unter manchen Gesichtspunkten.

Ich frage mich aber an der stelle wohin das führt wenn man das gegebene weiter extrapoliert, aber da verlassen wir das gerade diskutierte thema effizienz.

Denn wenn die Schere noch weiter auseinander geht zwischen Laptop und Desktop Leistung, sehe ich besonders große Nachteile für Laptop-Gamer.
Die Spielebranche orientiert sich immer am schnellsten Grafikkarten-Modell. Kaum ist die erste 4090 mit DLSS3 FG draußen, werden spiele dahingehend ausgebaut dieser Power gerecht zu werden um jenen Besitzern was zu bieten. Dabei fällt jedoch oft genug die Anpassung etwas kleinerer Hardware hinten runter. (Bestes aktuelles Beispiel Witcher 3 RT patch)
Wenn dann die Laptop GPUs aber trotz aktuellster Hardware von der Leistung immer eine Generation hinterher hinkt, zahlt man sich dumm und dämlich und kommt trotzdem nicht ansatzweise an das ran, was Spiele zum teil schon jetzt verlangen. Die Leistung der Laptop GPUs veraltet dann eine Generation schneller als ihre Desktop varianten, einfach weil sie eine Generation hinten dran sind.

Das macht einen als Laptop user einfach nicht glücklich. Man zahlt mehr bekommt aber weniger, noch nie war der Preis und das Opfer für die Mobilität beim zocken so hoch wie heute.
 
Cirael schrieb:
wäre es nicht als "besonders effizient" zu bezeichnen, wenn die Laptop GPU trotz ihrer Beschneidungen annähernd gleiche Leistung wie ihr Desktop Pendant einfahren könnte? Durch bessere Architektur, kleinerer Herstellungsprozess, etc.
Wie soll das innerhalb einer Generation funktionieren? Das ergibt doch gar keinen Sinn... Und warum soll die Karte deswegen nicht effizient sein? 2/3 der Leistung bei weniger als 50% des Stromverbrauchs.

Das macht einen als Laptop user einfach nicht glücklich. Man zahlt mehr bekommt aber weniger, noch nie war der Preis und das Opfer für die Mobilität beim zocken so hoch wie heute.
Ich könnte zufriedener nicht sein! Die Geräte bieten heute einfach nur spektakulär viel Leistung. Dass ich keine 4090-Desktop-Leistung in einem Laptop bekomme, ist wohl klar. Das ist aber auch nicht schlimm. Die 4080 und 4090 bieten mehr als genug Leistung.

Dass der Unterschied zwischen Laptop und Desktop wieder etwas größer geworden ist, liegt ja einfach daran, dass Nvidia die TDP der meisten Karten nach oben gezogen hat. Die GTX 1080 hat um die 180 Watt gezogen und die RTX 4080 jetzt knapp 300. Natürlich wird dann auch der Unterschied im Laptop wieder größer - aber in absoluten Zahlen habe ich doch noch immer extrem viel Leistung.
 
Cirael schrieb:
wäre es nicht als "besonders effizient" zu bezeichnen, wenn die Laptop GPU trotz ihrer Beschneidungen annähernd gleiche Leistung wie ihr Desktop Pendant einfahren könnte? Durch bessere Architektur, kleinerer Herstellungsprozess, etc.
Ich verstehe den Vergleich nicht. Wenn Nvidia es schafft, die Laptop GPU aufgrund besserer Architektur und kleinerem Herstellungsprozess (dessen Ergebnis ja bereits die RTX 4000er sind) rauszubringen, würde man diese Wunder-Laptop-GPU auch direkt für den Desktop nutzen - nur eben mit höherer Leistungsaufnahme.

Den Käufern dieser Zielgruppe ist der Nutzen in Form von Unterhaltung bzw. ersparte Zeit anscheinend mehr Wert, als die 100-200 Watt, die mehr verbraucht werden.
 
  • Gefällt mir
Reaktionen: DerRico
lucdec schrieb:
Wie soll das innerhalb einer Generation funktionieren? Das ergibt doch gar keinen Sinn... Und warum soll die Karte deswegen nicht effizient sein? 2/3 der Leistung bei weniger als 50% des Stromverbrauchs.
Genau was ich hier geschrieben habe. man kann es so oder so sehen.
lucdec schrieb:
Ich könnte zufriedener nicht sein! Die Geräte bieten heute einfach nur spektakulär viel Leistung. Dass ich keine 4090-Desktop-Leistung in einem Laptop bekomme, ist wohl klar. Das ist aber auch nicht schlimm. Die 4080 und 4090 bieten mehr als genug Leistung.
Man bekommt 2/3 der Leistung einer 4090 Desktop bei 4300€ laptop preis. Klar wenn Kohle keine Rolle spielt, seh ich das genauso. Tut es aber, ganz besonders im jahr 2023, zumindest hypothetisch, ich kauf eh keine. Und grad die preislich attraktiveren kleineren Modelle bringen in dieser 4000er Generation keine zufriedenstellende Leistung.
lucdec schrieb:
Dass der Unterschied zwischen Laptop und Desktop wieder etwas größer geworden ist, liegt ja einfach daran, dass Nvidia die TDP der meisten Karten nach oben gezogen hat. Die GTX 1080 hat um die 180 Watt gezogen und die RTX 4080 jetzt knapp 300. Natürlich wird dann auch der Unterschied im Laptop wieder größer - aber in absoluten Zahlen habe ich doch noch immer extrem viel Leistung.
Das ist eigtl. genau meine Rede zum Ende hier, nur dass ich nicht von extrem viel Leistung sprechen möchte, wenn Spiele schon jetzt und erst recht künftig sich an der leistung der 4090 desktop orientieren. Da bringen mir die absoluten Zahlen der schnellsten Laptop grafikkarte nichts, wenn die Anforderungen sich an der Desktop-Variente orientieren, oder anders gesagt, GameDevs meinen sie können ihre Frametimes an der Leistung einer 4090 Desktop optimieren.
Ergänzung ()

NguyenV3 schrieb:
Ich verstehe den Vergleich nicht. Wenn Nvidia es schafft, die Laptop GPU aufgrund besserer Architektur und kleinerem Herstellungsprozess (dessen Ergebnis ja bereits die RTX 4000er sind) rauszubringen, würde man diese Wunder-Laptop-GPU auch direkt für den Desktop nutzen - nur eben mit höherer Leistungsaufnahme.
Ja der Gedanke war in dem Zusammenhang, dass die 4090 Laptop hypothetisch noch einen -weiteren- Schritt im Herstellungsprozess optimiert sein müsste gegenüber der 4090 Desktop - damit sie auf ähnliches Niveau bei gleicher Energie käme, also "besonders Effizient" ist.

Ich hab gelernt, an dieser Stelle beißt sich die Katze in den Schwanz, weil im nächsten Gedanken immer die Desktop Variante mit mehr Energie vollgepumpt wird, einfach weil es dort möglich ist.
 
Zuletzt bearbeitet:
Bei den Preisen wäre es auf jedenfall schön wenn Intel und Nvidia vorselektierte chips nutzen würden. So hätte man dann zumindest die Effizientesten ihrer Klasse in den Notebooks wo ja jedes kleines % weniger Temperatur mehr Leistung bringt.
 
Artikel-Update: Auch dieser Artikel wurde um Messwerte der GeForce RTX 4090 Laptop GPU mit 80 Watt und der GeForce RTX 4080 mit 60 Watt in allen Spiele-Benchmarks ergänzt. Beides entspricht dem von Nvidia definierten Minimum für die jeweilige Klasse. Selbst auf 80 Watt schlägt die GeForce RTX 4090 Laptop GPU die in der größten Ausbaustufe im Durchschnitt 100 Watt konsumierende RTX 4070 Laptop GPU sowohl in FHD als auch WQHD mit und ohne Raytracing deutlich. Der GeForce RTX 4080 Laptop GPU mit 60 Watt gelingt das jeweils nur mit Raytracing, ansonsten liegt die GeForce RTX 4070 in Führung.
 
  • Gefällt mir
Reaktionen: PietVanOwl, stormi und Nuklon
Brutal, die 4090 mit 80 Watt ist immer noch schneller wie eine 6700XT auf dem Desktop.
 
Dieser Performance-TDP-Chart is genial. Das bringt eine Preis/Leistungsbetrachtung auf ein ganz neues Argumentationslevel.

Könnt mir vorstellen, soetwas zukünftig für Desktop-Grafikkarten als Entscheidungsgrundlage zu nutzen. Meine 3080 habe ich nicht nach Maximalleistung gekauft, sondern eigentlich nach einem TDP-Budget. Da suche ich mir dann in dem Chart die beste Preis/Leistung/Effizienz.
 
  • Gefällt mir
Reaktionen: Vitche, DerRico und Jan
Zurück
Oben