Test RTX 4090 & 4080 Laptop GPU im Test: Benchmarks mit 150+25, 105, 80 und 60 Watt TDP

SVΞN schrieb:
die für den Otto-Normalanwender wohl ziemlich verwirrend sein dürfte
Nicht nur für den. Wenn ich jetzt einen neuen Laptop suchen würde, stehe ich genauso mit Fragezeichen da
 
Ist schon ein starkes Stück dieses massive verarsche, wenn man sich mit den Watt nicht auskennt und dann meint den günstigsten zu nehmen aber dann den mit niedrigen Watt kauft und dann einfach bei gleicher Grafikkarte soviel weniger Leistung zu haben Frechheit ohne Ende. Kann den da Verbraucherzentrale nichts machen, das ist doch pure Kundentäuschung?
 
  • Gefällt mir
Reaktionen: DirtyHarryOne und Fenkel
Hamudy schrieb:
Beachtliche Leistung, vor allem im Vergleich zur Desktop RTX 4070 Ti. Diese ist zwar um 5-8% schneller, verbraucht aber 60% mehr Strom.

die laptop version ist schon UV. dasselbe ergebnis (und besser) kriegste bestimmt auch mit der "richtigen" 4070ti hin.
 
  • Gefällt mir
Reaktionen: herculesgott
andi_sco schrieb:
Teilweise zwischen 35 und 115W, zählt das dann als Glücksspiel?
Ich hab ja schon bei nem Office Notebook das Problem, das hp teilweise nichts zu den Specs sagen kann (max. TDP, max. Temp., Turbo lässt sich nicht deaktivieren, USB C wofür?), wie wird das erst hier?
Wenn du magst kannst du mir die Seriennummer schicken. Dann suche ich dir das Datenblatt und alle notwendigen Daten heraus. Ich arbeite im Premiumsupport für HP, eigentlich hätten dir die Kollegen die gewünschten Informationen geben können sollen. 🙂
 
fabeltierkater schrieb:
Was mich noch interessiert hätte: Bei welcher TDP ist die maximale Effizienz der 4090? Also beispielsweise wenn sie bei 175 W ihre 22k Punkte im 3DMark TimeSpy erreicht, wie sieht es aus bei beispielsweise 80 % TDP, also 140 W? Wenn das hier ähnlich ist wie bei der Dekstop-4090, verliert sie hierbei kaum Leistung, was gerade für ein Notebook, in dem man 175 W nicht mal eben so kühlen kann, sondern die Lüfter dann einen ohrenbetäubenden Krach verursachen, zumindest für mich sehr wichtig ist.
Gibt es dafür nicht Max-Q?
 
Austronaut schrieb:
das ist inzwischen schon sehr niesche....vorallem wenn man daran denkt was geforce now oder gamepass kostet (wie im podcast erwähnt)
Geforce Now ist preislich sehr interessant aber leider werden nicht alle Spiele unterstützt (aktuell zum Beispiel das sehr beliebte Hogwarts Legacy nicht) und der Mod Support ist auch sehr eingeschränkt.

Deshalb komme ich nicht um eigene Hardware herum und werde mir wahrscheinlich einen RTX 40 Laptop kaufen.
 
So langsam trudeln ja immer mehr Preise für die RTX4000er Notebooks ein. Das sind ja Preise, die teilweise 2.000€ über der Vorgängergeräten liegen. Das sind ja Verdopplungen von Preisen. Das ist krass!
 
Ja die Preise sind extrem. Vermutlich kann Nvidia nehmen was sie wollen da es in den hohen Leistungsklassen keinerlei Konkurrenz gibt.
 
Da der CPU-Markt so eingebrochen ist, werden wohl auch weniger GPUs verkauft werden. Bei Neugeräten kauft man ja zwangsläufig immer beides.

Hat jemand mal eine 4090/4080/4070 ti auf 150 W laufen lassen und kann ein paar Benchmarks nennen?
 
Robman86 schrieb:
... Viel spannender wegen so einiger (auch schon früh greifender) CPU-Limits (und diese frametimes sind dann mies) in aktuellen Games finde ich, ob der 13980HX beim Gaming auch ca. 75 W halten durfte? So bewirbt es MSI ja. ...
Jan schrieb:
Suche ich Morgen in den Logs raus @Robman86
Jan schrieb:

Ich konnte mittlerweile auch ein Razer Blade 18 mit 13950HX/4090 und ein Asus Scar G18 mit 13980HX/4090 testen:

Am interessantesten für mich war, wie viel Leistungsaufnahme die (starken) CPUs bei Dual-Load in einem noch erträglichen (4X dbA) Lüfter-Profil ("Balanced" oder ähnlich) abführen können/dürfen. Und wieviel im maximal lauten Lüfter-Profil (wegen Headset-Nutzung von manchen/vielen wird das wohl doch öfter genutzt als man denkt).
Denn ein GPU-Limit kann man relativ schnell ausbügeln (z.B. Reduktion der Details oder FSR-/DLSS-Stufe), aber ein CPU-Limit ist echt mies, da bringt die Reduktion von Details in der Regel wenig, und ein CPU-Limit hat wirklich sehr miese frametimes.
Außerdem war für mich interessant, wie die Charakteristik der Lüfter ist. Aber ich gehe auch auf andere Sachen kurz ein.

Zur (permanenten, also PL1) CPU-Leistungsaufnahme im „Balanced-Mode“. Bei z.B. FarCry 6, was auch ordentlich CPU-Leistung für viele fps möchte, fällt die CPU bereits nach kurzer Zeit auf ca. 45 W (Blade 18) bzw. 55 W (Scar G18). Das ist definitiv zu wenig, hierdurch fallen die fps auch ordentlich und CPU-Limits verschärfen sich deutlich. Für mich indiskutabel:

FarCry 6 Savegame im CPU-Limit (wenig Load auf der GPU) im Leistungs-/Lüfter-Profil "Balanced" (beim Scar G18 heißt es „Leistung“)
  • 10900K (Alienware Area 51m R2) ~125 W Temp-Limit: 92 fps
  • 13950HX (Razer Blade 18) ~45 W Powerlimit: 103 fps
  • 13980HX (Asus Scar G18) ~55 W Powerlimit: 118 fps
  • 13900K (Mini-ITX-Desktop) 88 W Powerlimit: 156 fps
  • 13900K (Mini-ITX-Desktop) ~130 W offen: 163 fps
Hinweis 1: Der in der Überschrift genannte Leistungs-/Lüfter-Modus bezieht sich natürlich nur auf das Blade 18 und Scar G18, das Alienware Area 51m R2 lief im Silent-Modus und der Desktop ja eh völlig individuell

Hinweis 2: Beim Alienware Area 51m R2 wird bei um die 125 W im Silent-Profil (!) das langfristige Temp-Limit erreicht, sonst wären wohl noch paar fps mehr drinnen. Würde die GPU voll arbeiten, wären aber etwas weniger Watt möglich, aber wie gesagt: Silent-Profil! Da wäre noch Spiel-Raum wegen lauterer Lüfter-Profile Die anderen beiden Laptops dürfen halt einfach langfristig gar nicht mehr (PL1). Ja, der Vergleich ist nicht ganz fair, da das Alienware Area 51m R2 dicker und schwerer ist

Hinweis 3: Dass der Desktop so davon zieht, hat auch damit zu tun, dass dort deutlich schnellerer Ram (6000 MHz CL32) zum Einsatz kommt.


Hinweis 4: In dem Beispiel / Spiel mögen für viele auch bereits die 92 fps des Alienware Area 51m R2 / 10900K ausreichend sein. Aber erstens gibt es üblere Stellen im Spiel, und zweitens gibt es mittlerweile so einige Spiele, wo man die fps quasi durch 2 teilen kann, und dann bleibt bei allen Laptops nicht mehr viel über bzw. nicht einmal stabile 60 fps in entsprechenden Szenen. Das mag bei solchen Spielen auf schlechte Entwicklung / Optimierung / Ports zurück zu führen sein, aber was will man machen, wenn einem diese Spiele gefallen...

Das Scar G18 ist schneller als das Blade 18, was nicht nur durch die höhere Leistungsaufnahme zu erklären ist. Einer der Gründe ist die etwas besser taktende CPU, ein weiterer vielleicht der Ram (nicht verglichen).

Beim maximalem Leistungs-/Lüfter-Profil (5X dbA) sind dann im gleichen Test ca. 65 W bei beiden dauerhaft möglich. Natürlich liegen die ersten wenigen Minuten bei beiden über 100 W an. Ein so lautes (Hilfe!) Lüfter-Profil ist für mich indiskutabel. Zudem ist die Leistungsaufnahme für meinen Geschmack immer noch zu wenig:

FarCry 6 Savegame im CPU-Limit (wenig Load auf der GPU) im maximalen Leistungs-/Lüfter-Modus
  • 10900K (Alienware Area 51m R2) ~125 W Temp-Limit: 92 fps
  • 13950HX (Razer Blade 18) ~65 W Powerlimit: 110 fps
  • 13980HX (Asus Scar G18) ~65 W Powerlimit: 118 fps
  • 13900K (Mini-ITX-Desktop) 88 W Powerlimit: 156 fps
  • 13900K (Mini-ITX-Desktop) ~130 W offen: 163 fps
Die ganzen Zahlen schwanken minimal, ist quasi jeweils ungefähr ein Mittelwert. Es geht ja auch nicht darum, ob es hier und da 1-2 fps weniger oder mehr sind, man sieht überall große Unterschiede.

An der Stelle nochmal gesagt: Es geht hier um ein CPU-Limit, die GPU ist jeweils bei weitem nicht ausgelastet. Es spielt also keine Rolle, dass im Mini-ITX-Desktop eine schnellere 4080-Desktop-Karte verbaut ist, die fps-Differenzen kommen alleine durch die CPU-Unterschiede zu Stande bzw. natürlich auch durch den Ram, der Desktop nutzt 6000 MHz CL32, was bei weitem von keinem Laptop genutzt wird / werden kann.

Übrigens werden die CPUs der beiden Laptops, auch im maximalen Leistungs-/Lüfter-Profil, im Dual-Load schon sehr heiß. Das künstliche Limit also z.B. mit ThrottleStop zu umgehen (sofern möglich) würde hier nicht viel bringen. Viel ist halt relativ, müsste man testen und schauen ob einem das reicht.

Ich habe auch mal beim Blade die Leistung der GPU deutlich reduziert (weit unter 70 W), dann hat die CPU in FarCry 6 tatsächlich - scheinbar dauerhaft zwischen deutlich bessere 90-110 W geschwankt. Aber ab 70-80 W auf der GPU (und das braucht man ja mindestens schon...) fällt sie dann auf die genannten ca. 65 W ab. Wahrscheinlich irgendwann so oder so. 90-110 W bringen übrigens 12X-13X (je nach Laptop) fps bei FarCry 6, aber man wird sie halt nur in den ersten wenigen Minuten zu Gesicht bekommen... (im CPU-Limit in genau diesem Savegame bzw. an der Stelle im Spiel).

Wie @Jan schon getestet hat, kann das MSI GT77 Titan oder auch das XMG Neo 16 (sicher auch 17) teilweise mehr als 65 W (aber keine 100+) durchschnittlich abführen, und das auch bei Dual-Load. Das Blade 18 und Scar G18 jedoch nicht, wenn die GPU stock oder auch mit UV arbeitet. Und das ist definitiv in manchen Spielen ein riesen Nachteil (heftigeres CPU-Limit hier und da).

Ich glaube nicht daran, dass es beim noch kommenden Alienware m18 großartig anders sein wird. Und das MSI oder das XMG gefällt mir nicht bzw. lässt so viel Leistungsaufnahme auf der CPU auch nur in (für mich) viel zu lauten Leistungs-/Lüfter-Profilen zu, was für mich ein absolutes Ausschlusskriterium ist. Das würde natürlich auch das Alienware m18 betreffen.


Zur Charakteristik der Lüfter

Blade 18:
Gar nicht so übel, auch wenn ich es nicht rauschig nennen würde. Rauschig ist es für mich erst, wenn ein Lüfter sich mehr rauschig anhört, als die anderen Geräusche. Ein Alienware Area 51m R2 würde ich als rauschig bezeichnen, auch wenn man dort noch was anderes raushört, aber das macht eben keine 50% aus. Richtig rauschig sind meines Erachtens z.B. gewisse Desktop-Lüfter von Noctua.

Scar G18: Schlechter finde ich. Hat noch weniger mit Rauschen zu tun, irgendwie mehrere unangenehme Geräusche. Zudem heftiges coil-whine, was ich beim Blade 18 nicht bemerkt habe. Es ist lauter wie bei einigen Highend-Desktop-GPUs...

Auf die Lautstärke jeweils brauche ich nicht einzugehen - beide viel zu laut. Und leiser betreiben ist wegen zu starker Drosselung, sei es thermisch oder künstlich, nicht vernünftig möglich.


Display:

Allgemein:


18 Zoll wirken erstmal mega toll und modern (dünner Rand für so ein großes Display). Und man benötigt eigentlich auch kein 27“ mehr auf dem Schreibtisch, man ist ja näher dran. Aber viele von euch nutzen ja eh größere Displays als 27 Zoll auf dem Schreibtisch, insofern wäre da wieder ein externes Display notwendig.

Blade 18: Katastrophe, Flickering vom Feinsten (auch in Windows - das wird sicher noch irgendwann gefixt), dazu sieht man das „Netz“ des Displays. Bei der Auflösung bei 18“ müsste das nicht sein, ist einfach kein gutes Panel.

Scar G18: Deutlich besseres / zufriedenstellendes Panel, ohne die Farben beurteilt zu haben. Ich gehe auch nicht auf Glowing und Clouding ein, das haben beide ganz gut gehabt... Mini LED o. OLED sind beide nicht.


Anmutung & Qualität

Blade 18:
Natürlich super gut.

Scar G18: In live deutlich wertiger als ich bisher so an Bildern und Videos gesehen habe. Ich habe es aber auch bisher nur kurz mit Tageslicht gesehen. Meine aber auch die Oberflächen und das wenig knarrt oder sowas. Sollte man sich aber auf jeden Fall live anschauen, wenn der Rest passt / es einen interessiert


Auf Tastatur, Design, Sound, Webcam, Akkulaufzeit usw. gehe ich jetzt nicht ein.


Fazit

Mittlerweile benötige ich aus allgemeinen Gründen, unter anderem kleiner Schreibtisch im Wohnzimmer Nähe Couch (nun definitiv glücklicherweise) kein Gaming-Laptop mehr. Für mobile Zwecke bzw. Mitnahme Urlaube / Hotels, wo nicht gezockt wird, ist ein - wie ich finde - ziemlich perfektes 14" Macbook Pro vorhanden.

Nach diesem Test sind im Prinzip alle Gaming-Laptops - unabhängig vom Lüfter-Profil - nicht für mich (als Haupt-Spiele-PC) zu gebrauchen. Ein Alienware Area 51m (R2) durfte noch im Silent-/Balanced-Profil ins CPU-Temperatur-Limit laufen (und das entsprechende Kühlsystem hierzu war vorhanden!), das hätte man wenigstens wieder so machen können, anstatt in leisen und mittleren Lüfter-Profilen künstliche Leistungsaufnahme(TDP)-Limits zu setzen. Schade, aber schon seit Jahren bei allen Herstellern und Modellen die ich kenne Normalität. Aber manche Modelle würden auch wegen schlechtem Kühlsystem nicht mehr Leistungsaufnahme im entsprechenden Lüfter-Profil schaffen, teilweise macht es also Sinn... außerdem liegen so nicht immer 95-100 Grad an, was den Käufer beruhigt.

Im Vergleich zum 13900K im Desktop ist die mobile Variante - unabhängig der Leistungsaufnahme - wie gesagt deutlich langsamer wie man sieht. Das hat man höheren Taktraten und wie weiter oben schon gesagt deutlich schnellerem Ram zu tun. Aber das war ja schon immer so und wird wohl auch so bleiben.
Das einzige was wirklich toll ist, ist natürlich die Effizienz bzw. die Perfomance der CPUs bei nur 45-65 W. Aber wenn man den Desktop-13900K auf 45-65 W reduzieren würde, wäre das ähnlich.

Ich glaube man muss abschließend einfach festhalten und akzeptieren, dass eine hohe dauerhafte (PL1) Leistungsaufnahme von z.B. um die 100 W auf der mobilen CPU bei gleichzeitiger GPU-Load - wenn überhaupt (bei vielen Gaming-Laptops schon mal nicht) - nur mit sehr lautem Leistungs-/Lüfter-Profil möglich ist, was für mich absolut nicht in frage kommt. Es müsste sich vorher für mich also grundlegend das Kühlsystem ändern und/oder die Chips dürften nicht mehr so viel Leistungsaufnahme benötigen. Vorher kann wohl kein Gaming-Laptop mehr für mich in frage kommen. Eine absolute Ausnahme war eigentlich das Alienware Area 51m (R2). Möglicherweise auch das Clevo X170KM-G/XMG Ultra 17 (hatte ich nie getestet und wird wie das Alienware Area 51m nicht mehr mit aktueller Gen versorgt). Im Grunde hat sich also mit der neuen Gaming-Laptop-Generation jetzt gar nichts geändert. Die 18 Zoll Gaming-Laptops sind in allem etwas besser, aber eben halt auch nicht mehr.
 
Zuletzt bearbeitet: (Rechtschreibfehler korrigiert.)
  • Gefällt mir
Reaktionen: Gadget Stage, Hellyeah, BacShea und 6 andere
Artikel-Update: Der Artikel enthält jetzt auch Spiele-Benchmarks in Full HD. Darin enthalten sind neben RTX 4090 und RTX 4080 Laptop GPU auch die Messergebnissen einer Radeon RX 6800M – ein potentieller Gegenspieler für die kleineren GeForce RTX 4000 Laptop GPUs, die kommende Woche erscheinen.
 
  • Gefällt mir
Reaktionen: Hamudy, Onkel Föhn, PietVanOwl und 2 andere
Dass die Kombination aus RTX 4090 und Core i9-13950HX im Notebook von MSI im Profil „Extreme Performance“ gegenüber der Kombination RTX 4080 und Core i7-13700HX im Notebook von XMG im Profil „Overboost“ unterlegen ist, obwohl die anliegenden Taktraten und die CPU-Leistungsaufnahme im Benchmark dafür keine Indizien liefern, haben bereits die Frametimes in eigenen Spielen in WQHD gezeigt.
Interessant. Wobei ihr da scheinbar ein spezielles Vorserienmodell von XMG habt. In der kaufbaren Version wird immer der i9-13900HX verbaut.
 
  • Gefällt mir
Reaktionen: Onkel Föhn und Jan
@Jan
Da ihr euch im Podcast ein wenig enttäuscht über die geringe Resonanz des Artikels gezeigt habt: hier nun mein Solidaritäts-"Beitrag", der zumindest den Beitragscounter erhöht. :D

Ansonsten geht das Thema total an mir vorbei. Zocken über Notebook ist für mich einfach tot. Auch im Freundeskreis. Aber das ist meine persönliche Bubble.
Und dann kommt eben auch dazu (wie im Artikel erwähnt), dass die Leistung vom Notebook-Design abhängt. Und da es davon 500000 Modellvarianten gibt, ist die Aussagekraft des Artikels für diese GPU-Varianten leider geringer als bei euren allgemeinen Tests.
 
  • Gefällt mir
Reaktionen: iPat1337 und Jan
Der Artikel hat doch aber die Leistungs-Skala quasi jeder Modellvariante drin und bietet damit etwas, was sonst so gut wie keiner bietet. Aber offensichtlich ist das nicht sichtbar genug - trotz Titel. Danke dir!
 
  • Gefällt mir
Reaktionen: fabeltierkater und Onkel Föhn
tiga05 schrieb:
@Jan
Da ihr euch im Podcast ein wenig enttäuscht über die geringe Resonanz des Artikels gezeigt habt: hier nun mein Solidaritäts-"Beitrag", der zumindest den Beitragscounter erhöht. :D

Ansonsten geht das Thema total an mir vorbei. Zocken über Notebook ist für mich einfach tot. Auch im Freundeskreis. Aber das ist meine persönliche Bubble.
Und dann kommt eben auch dazu (wie im Artikel erwähnt), dass die Leistung vom Notebook-Design abhängt. Und da es davon 500000 Modellvarianten gibt, ist die Aussagekraft des Artikels für diese GPU-Varianten leider geringer als bei euren allgemeinen Tests.
Same :)
 
  • Gefällt mir
Reaktionen: Jan
Jan schrieb:
Der Artikel hat doch aber die Leistungs-Skala quasi jeder Modellvariante drin und bietet damit etwas, was sonst so gut wie keiner bietet. Aber offensichtlich ist das nicht sichtbar genug - trotz Titel. Danke dir!
Das meinte ich bezogen auf die Notebook-Modelle, die später erhältlich sind.
Mag zwar sein, dass der Hersteller auch angibt, dass diese und jene Watt-Kategorie konfiguriert ist - ob das die Kühlung dann auch nach 2 Stunden Zockersession noch hergibt? Da ist es dann meiner Meinung nach schon wieder recht schwierig ausgerechnet DAS Modell zu finden, welches das beste Thermaldesign hat. Drauf schreiben kann jedenfalls jeder Hersteller alles....
Ich glaube da haben es die Hersteller bei regulären Grafikkarten einfacher ein Design zu kreieren, welches unter allen Umständen immer die beste Leistung bringt.

EDIT: Aber jetzt, wo ich den Artikel dann doch noch einmal im Detail lese: Schon interessant, was da alles noch für Details gibt :) .
 
  • Gefällt mir
Reaktionen: Onkel Föhn und Jan
Ein "Vorteil" der breiten TDP-Bänder je GPU-Klasse ist durchaus, dass man davon ausgehen darf, dass die konkrete GPU ihre TDP auch dauerhaft in Notebook X halten kann. Mir ist zuletzt kein NB untergekommen, in dem die versprochene TDP nicht gehalten wurde - euch?
 
  • Gefällt mir
Reaktionen: fabeltierkater, tiga05, Hamudy und eine weitere Person
Zurück
Oben