Test RTX 4090 & 4080 Laptop GPU im Test: Benchmarks mit 150+25, 105, 80 und 60 Watt TDP

cvzone schrieb:
Es wäre daher vielleicht gut gewesen im Produktnamen noch in irgendeiner Form die jeweilige Leistungsaufnahme zu haben, weil sich diese ja massiv auswirkt.
Genu so sieht es aus. Es muss direkt von Außen her sichtbar gemacht werden, dass die GPU Leistung aufgrund einer niedrigeren TGP eingeschränkt ist.
Wird aber so sicherlich nicht gemacht werden.
In den Spezifikationen kann man vielleicht die TGP finden, aber prominent auf der Verpackung wird "RTX 4090" ohne irgendeinen Hinweis prangen.
 
Schon sehr geil, dass man mit 60 Watt die Leistung einer gehobenen 3070 mit 220 Watt von vor zwei Jahren erreichen kann (die 3070 galt als effizient!). Das ist fast 4x weniger Stromverbrauch! Für mich ist das der wirkliche Fortschritt der aktuellen 4000er Reihe. Die Effizienz. Dazu dann natürlich auch der größer ausgelegte RAM.
 
  • Gefällt mir
Reaktionen: Fenkel, Pamoli, fabeltierkater und eine weitere Person
Jemand ne Idee wie sich die 4060 im Laptop machen wird?

Denke drüber nach,, meinen Laptop mit 3060 mal aufzurüsten, damit WQHD besser läuft und nicht in DLSS ganz auf Performance gehen muss. 3080 im Laptop gibt es schon für unter 1.500€, aber dann nur TDP bis 100W, dann lieber eine 3070 Ti die bis 150W ziehen darf - kostet aber auch ab 1.800€ mit vernünftiger CPU.

4060 Laptop Asus TUF soll bei knapp unter 2.000€ starten. Viel Geld für die Einstiegsklasse :(
 
#
Muss man wohl Tests abwarten. Normal macht ein Upgrade um eine Generation aber nicht soviel Sinn.
 
mal von den Preisen ganz abgesehen die aktuelle 4000er Laptop Hersteller aufrufen:
Vielen Dank für den Test. Vor allem für die 60W Einstellung. Das ist genau was ich wissen wollte und im Begriff war zu recherchieren.
Euer Timing war hier einfach perfekt.
 
Zuletzt bearbeitet: (Grammatik)
Perfekt mit den unterschiedlichen TDP. Schade ist, dass der Vergleich zu den 3000er mobile Modellen fehlt. Gegen die Desktopmodelle hat man ne Einordnung der Performance, aber der Effizienzgewinn in der entsprechenden TDP Klasse wäre schön interessant.
Man sieht aber, dass die 4080 noch Recht gut skaliert nach oben. Da wird sich dann eine 4090 unter 150W nicht richtig lohnen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: fabeltierkater und jabberwalky
nciht schrieb:
16GB VRAM, 150-175 Watt TDP und fast die Leistung einer 3090 - Das hätten imho so die Specs der RTX 4070Ti im Desktop werden sollen, auch wenn sie etwas weniger Leistet, dafür dann halt günstiger.
Auf diese GPU habe ich eigentlich die letzten Jahre gewartet, für so 500 - 600€. Um meine damals für 500€ erworbene 1070ti abzulösen, die ja auch 180 Watt zog. Jetzt ist es halt ne gebrauchte RX6800 mit undervolting geworden. 200w und 600€ sind für mich das Limit. Und dann bitte auch nicht mit 8-12 GB VRAM in der Preisklasse > 500€ 2023.

Daher war das auch genau mein Gedanke bei diesem Test.
 
Da Ada Lovelace kein Effizenzwunder ist, bleibt der fade Beigeschmack auch an den mobilen Chips kleben.
Geforce 4080 60W "Mobile" = Geforce 3060Ti (Desktop). Das ist schon ein recht guter Wert, aber man bezahlt halt 2500€+ für eine Leistungsfähigkeit die gerade so für die meisten WQHD Titel reicht. Und ja, es wird einige Laptops geben die schnell in das thermische oder elektrische Limit laufen.
 
Simanova schrieb:
Da Ada Lovelace kein Effizenzwunder ist...

Verschrieben?

Aber genau das ist Ada Lovelace doch? Doppelt so effizient wie die Vorgänger-Grafikkarten und deutlich effizienter als die aktuellen AMD-Karten. Das ist gigantisch innerhalb von 2 Jahren. Dazu eine super Skalierung beim Stromverbrauch.

Oder anders ausgerückt, du kannst die gleiche Leistung wie bei einer 3060ti mit 25% der Leistungsaufnahme schaffen. Das ist dann sogar 4x effizienter. Mehr Effizienzwunder geht doch gar nicht?
 
  • Gefällt mir
Reaktionen: lubi7, fabeltierkater, anarchie99 und eine weitere Person
fabeltierkater schrieb:
Was mich noch interessiert hätte: Bei welcher TDP ist die maximale Effizienz der 4090? Also beispielsweise wenn sie bei 175 W ihre 22k Punkte im 3DMark TimeSpy erreicht, wie sieht es aus bei beispielsweise 80 % TDP, also 140 W? Wenn das hier ähnlich ist wie bei der Dekstop-4090, verliert sie hierbei kaum Leistung, was gerade für ein Notebook, in dem man 175 W nicht mal eben so kühlen kann, sondern die Lüfter dann einen ohrenbetäubenden Krach verursachen, zumindest für mich sehr wichtig ist.
Ich vermute, dass die Leistung schon im Verhältnis massiver absinkt, da die 4090 Desktop ja ein komplett anderer Chip ist und nur die Bezeichnung ähnelt, die Produkte haben an sich nichts gemein.
Die 4090 im DT erreicht das auch nur durch ihr pervers hoch gesetztes PL, das sie quasi nie braucht, die Taktstabilität, bei auch weniger W und der Leistungsabfall wird durch den hohen Shadercount kompensiert, solange der Takt recht stabil bleibt und kaum absinkt. Nur deshalb ist das Teil auch mit 80% oder weniger noch so ein Brecher.
Ich würde -15-20% bei 80% PL vermuten bei der Mobilen Variante.

@Jan
Geht das denn im Afterburner oder so nicht bei mobilen GPUs derzeit? Sorry für die dumme Frage aber hatte schon länger kein NB mit Gaminghardware in den Händen.
Ansonsten würde mich das tatsächlich auch interessieren :)
Auf jeden Fall super Test!

Auf jeden Fall ein super Produkt im NB Bereich, zu einem unsäglichen Preis (wie ich vermute).
Dann noch die TGP Ranges... die sind etwas bitter.
Bestätigt mich aber weiterhin darin, dass die Karten WQHD Karten sind, nix mit 4K im NB, Mobil unterwegs ja, als DT Replacement eher nicht nicht geeignet, nur wenn man wirklich den Bedarf dazu hat.
Wenn jetzt nur die Deppen von Hersteller aufhören würden 120Hz 4K Panels zu verbauen bei >90% dieser Hardwarekonfigurationen....
 
Unti schrieb:
@Jan
Geht das denn im Afterburner oder so nicht bei mobilen GPUs derzeit? Sorry für die dumme Frage aber hatte schon länger kein NB mit Gaminghardware in den Händen.
Auf dem XMG Neo 16 mit 4080 geht das verlässlich und dauerhaft, auf dem MSI Titan GT77 funkt hingegen irgendwas dazwischen und ich habe noch nicht begriffen, was das ist (MSI Center, Windows Energieprofil etc. pp.). Änderungen werden bisher verlässlich nur in Furmark und Shadow Warrior 3 übernommen, im gesamten Parcours im Test hingegen ist es mir bisher nur in CP2077 und FarCry 6 gelungen - und das auch ohne zu begreifen warum, denn gerade geht es wieder nicht. :D
 
  • Gefällt mir
Reaktionen: fabeltierkater und Unti
Jan schrieb:
Auf dem XMG Neo 16 mit 4080 geht das verlässlich und dauerhaft, auf dem MSI Titan GT77 funkt hingegen irgendwas dazwischen und ich habe noch nicht begriffen, was das ist (MSI Center, Windows Energieprofil etc. pp.).
Könnts an dem Dynamic Boost liegen?
Was sind denn in diesen Geräten die BIOS Settings? Kann man den Dynamic Boost nicht immer zuschalten lassen bzw. ne "Off" Option, damit der das nie wieder wegnehmen kann?^^
 
Dynamic Boost kann man deaktivieren. Aber im anderen MSI Titan GT77 mit 4080 hatte er ja die gleichen Settings aktiv.
 
  • Gefällt mir
Reaktionen: Unti
Jan schrieb:
Auf dem XMG Neo 16 mit 4080 geht das verlässlich und dauerhaft, auf dem MSI Titan GT77 funkt hingegen irgendwas dazwischen und ich habe noch nicht begriffen, was das ist (MSI Center, Windows Energieprofil etc. pp.). Änderungen werden bisher verlässlich nur in Furmark und Shadow Warrior 3 übernommen, im gesamten Parcours im Test hingegen ist es mir bisher nur in CP2077 und FarCry 6 gelungen - und das auch ohne zu begreifen warum, denn gerade geht es wieder nicht. :D
Das MSI Dragon Center funkt immer wieder dazwischen auf den MSI Notebooks. Schon Mal probiert das Dragon Center zu beenden/deaktivieren?
 
  • Gefällt mir
Reaktionen: Unti
Ich Profil „balanced“ scheint der beim MSI eigentlich auch aus zu sein, aber meine Vermutung geht auch in diese Richtung.
 
  • Gefällt mir
Reaktionen: Unti
Finde ich richtig gut das auch mal so ein Produkt wie die 4080 bei 60 Watt getestet wird, generell würde ich es sehr gut finden, wenn die Tech-Industrie Notebooks zwei mal tested, einmal am Strom und einmal im Akku Betrieb, da hier viele Notebookfirmen einfach die Leistung drosseln müssen damit es nicht komplett peinlich wird.
Positiv bringt die 60 Watt 4080 ja fast das Level einiger GPUs der vorherigen Generation bei 200-300 Watt.
Das ist ja eben schon mal ein guter Schritt, wenn wir das dann mal auf 25-45 Watt kriegen, dann könnte man endlich mit den Dingern auch unterwegs arbeiten und nicht nur von Steckdose zu Steckdose rennen und jedes mal wenn man das Kabel abzieht wechseln die Modi, Bildschirm wird erst mal schwarz und das Ding bootet fast neu.
Die Kritik geht aber auch an AMD, die ja ebenfalls es nicht schaffen die Generationen in 25-45 Watt zu drücken und trotzdem eine gute Performance zu bieten.

Das würde vor allem der Kühlung, Lautstärke und eben vor allem der Ausdauer und Produktivität zu gute kommen.
Ja, es gibt Desktopreplacement-Modelle und es gibt Leute deren erster Schritt es immer ist, das schon fast rucksackgroße(extra etwas übertrieben) 200-300 Watt Netzteil irgendwo an ne Stromquelle zu kriegen, arbeiten wo keine ist? Nicht möglich.
Dann kann man aber Notebooks viel besser bewerten und selektieren in dem man sagt Modell A bringt viel Leistung und ist Mobil und Modell B bringt noch mehr Leistung ist aber quasi ohne Strom nichts wert.

Weil bei den ganzen schlanken Notebooks die dann leiser sind und mehr Akku-Laufzeit haben, da kriegst dann halt auch nochmal nur die Hälfte der Leistung und auch diese werden zumeist unter Strom gebenchmarkt.

Ein Unding bei Tech.
Daher Gott sei Dank wurde es auch mal am unteren Ende getestet, so kann jeder gucken ob es fürs mobile Arbeiten und Gaming dann auch reicht oder man sich quasi seinen flexiblen Arbeits- und Gamingort dann doch nicht so flexibel aussuchen kann.
 
Eorzorian schrieb:
Erst mal einen lieben Dank für den Test. Laptop's Tests in großem Maße sind hier natürlich selten anzutreffen, aber eure ausführliche Arbeit möchte ich hier loben. :hammer_alt:

Die Leistung scheint es in Masse zu geben, aber preislich bewegen sich die Teile weit außerhalb meines Budgets. -60er Klasse (GTX 960M, braucht langsam Update) war damals um 1100€ anzutreffen, aber die Gewohnheiten haben sich gewandelt und man möchte mit Zeit natürlich von 15" auf 17" gehen. Bessere Kühlung, mehr Platz am Bildschirm, größere Akkus, halbwegs leichte Geräte sprechen heutzutage dafür.
"2.899 Euro (4080) respektive 3.999 Euro (4090) losgehen.", das lässt dann nichts gutes erahnen für die Klassen darunter. :heul:

B-Ware oder bei ebay am Jahresende kaufen.
Letztes Jahr hatte ich ein Razer Blade 17 mit 130W 16GB 3080 und 4K Bildschirm von 1.750 EUR gekauft.
Dieses Jahr ist es ein Razer Blade 14 mit 150W 3070TI für 1.495 EUR geworden, da ich was mobileres wollte und das alte ohne Verlust weiterverkaufen konnte.

Was einfaches wie ein MSI Vector mit 4080 wird man da sicher für 2.000 EUR bekommen.

Chismon schrieb:
Im nachfolgenden Video von Hardware Unboxed werden die positiven aber auch die (m.E. ueberwiegenden) negativen Aspekte hinsichtlich eines RTX 4090 Laptops (wie surrealer Preis, nVidia Bezeichnung/Kundentaeuschung, Kuehlung, Mobilitaet/Gewicht/Netzteilgroesse) noch einmal trefflich aufgeworfen (im letzten "Final Thoughts" Segment):

Die realen 155W GPU-Leistung hat man doch schon letztes Jahr in einem Razer Blade 17, Alienware X17 ect. gut weggekühlt bekommen. Bissel undervolting und man landet real bei GPU+CPU bei ~200W. Das geht auch in schlanken Notebooks ohne dass sie abheben. Nur wenn man die CPU auch noch voll ausfährt und der um die 100W gönnt wird es halt zuviel.
 
  • Gefällt mir
Reaktionen: Eorzorian
Auch wenn ich persönlich nicht einmal ansatzweise Bedarf an dermaßen hoher Leistung im Notebook habe, so ist die Effizienz schon beeindruckend.

Weniger schön ist hingegen das Durcheinander hinsichtlich der Angaben von TDP/TGP, die für den Otto-Normalanwender wohl ziemlich verwirrend sein dürfte.

Im mobilen Segment, insbesondere in der Oberklasse und im High-End-Bereich ist Nvidia aber erst einmal auf und davon gezogen.
 
Zurück
Oben