Test RTX 4090 & 4080 Laptop GPU im Test: Benchmarks mit 150+25, 105, 80 und 60 Watt TDP

guggi4 schrieb:
Weniger Leistung bei wahrscheinlich höherem Preis, weil selektierter Chip. Das wäre im Vergleich zur "normalen" 4080 ein Ladenhüter deluxe

Wäre das wirklich so? Nehmen wir an die 4080 würde mit 10% weniger Leistung und einer TDP von 200 Watt herauskommen. Wäre das so schlimm? Der einzige Unterschied wäre dann, dass AMD bei 350 Watt eben 10% in der Rasterleistung schneller wäre. Gleichzeitig könnte man aber auch ordentlich beim Kühler sparen und hätte eine etwas günstigere 4080.
 
Mich interessiert der Preis von rtx 4060 Laptop und ob die was taugen mit full HD Monitor ob die da in jeden Spiel auf 60 FPS ultra kommen, auch dann mit dlss 2 oder 3 falls die das Unterstützen und wie teuer vorralem.
 
Hatsune_Miku schrieb:
12GB wo es bei dem Vorgänger 16 bzw 8 gab und auch das beschittene Interface. Nichts gegen nv aber das ist wieder ein typischer nv move womit die Karten wieder kürzer halten als sie eigentlich können.
Das ist doch Quatsch. Das ist das was die GPU hergibt. Da ist nichts künstlich beschnitten.
Ich frage mich auch was manche sich am Speicherinterface aufgeilen. Was zählt ist die Performance, völlig gleich wie sie zu stande kommt. Wenn überhaupt, dann zählt die effektive Speicherbandbreite. Weiß man doch spätestens seit den Radeon 6000. Und die ist höher als beim Vorgänger.
 
Matthias B. V. schrieb:
Was brauch der durchschnittliche Gamer:

  • Leistung / Watt
  • Leistung Pro / $
  • HDMI 2.1 und DP2
  • AV1 / H265 Decode
  • Evtl noch mehr Raytracing performance und AI Upscaling aber auch da gibt es gemischte Gefühle.

Die ganzen anderen Gimmicks sind für 80% irrelevant oder? Auch Encoding etc. oder H266 wäre nett aber interessiert viele nicht.

Denke mit RDNA4 in TSMC N3 ist man wenn nichts schief läuft konkurrenzfähig. Wo ich eher sorgen habe ist Intel mit DG3. Hier wird man noch etwas zurückliegen und wenn es dumm läuft zieht man den Stecker bevor DG4 aufschließen kann.
Was brauch der durchschnittliche Gamer:

  • Leistung / Watt
  • Leistung Pro / $
  • HDMI 2.1 und DP2
  • AV1 / H265 Decode
  • Evtl noch mehr Raytracing performance und AI Upscaling aber auch da gibt es gemischte Gefühle.
Weder hdmi2.1 noch raytracing Performance braucht ein durschnittlicher gamer
 
  • Gefällt mir
Reaktionen: Mcr-King
-=:Cpt.Nemo:=- schrieb:
Warum gibts das nicht als Desktop Karte...ich verstehe es nicht.
Ne 4070 ti hat knapp über 300 kann man bestimmt begrenzen ohne viel leistung
 
Artikel-Update: Zur GeForce RTX 4080 Laptop GPU wurden inzwischen auch die Informationen zu den in den Benchmarks anliegenden Verlustleistungen und Taktraten sowie Testergebnisse im 60-FPS-Limit ergänzt.

Die GeForce RTX 4000 Laptop GPUs, ihre Leistung in Abhängigkeit der TGP, das Namensschema und ein Ausblick auf die kleineren Modelle, die am 22. Februar folgen werden, waren auch Thema in CB-Funk – der ComputerBase-Podcast #6.

[Embed: Zum Betrachten bitte den Artikel aufrufen.]
 
  • Gefällt mir
Reaktionen: el_zoido
yamiimax schrieb:
Ne 4070 ti hat knapp über 300 kann man bestimmt begrenzen ohne viel leistung
Irgendwie ergibt dein Satz keinen Sinn, aber soweit ich es sehe braucht die 4070Ti den Strom um die Leistung zu erbringen. Wenn man ihr 1/3 ihres Strombedarfs (100W) nicht gibt und erwartet das sie dadurch nur im einstelligen Prozentbereich an Leistung verliert, dann wird man enttäuscht.
 
Blackfirehawk schrieb:
dafür hängt mir AMD mittlerweile etwas zuviel hinterher was das Featureset angeht
Welche Features fehlen Dir?

Man muss schon sagen, nVidia ist im Laptop ungeschlagen. Der 6800M/S von AMD ist sicher nicht schlecht, allerdings hört man von inkompatiblen/Problemen mit Spielen.

Ich hatte zuletzt Ausschau nach brauchbaren Laptops geschaut mit 3070 Ti aufwärts. Aber passt hier und da immer mal wieder etwas nicht. Die 4000er Laptops werden wohl bei locker 3- eher >4.000€ liegen. Das macht dann keinen Sinn. Außer für Reiche, die vor lauter Kohle nicht wissen, wohin mit dem Geld.

Noch kann ich mit meinem Acer (5800X mit RTX 3060) zB COD:MW2 und DLSS bei "Performance" locker mit 80-110fps in 3440:1440 spielen. War äußerst überrascht. BF2042 bietet hier nicht mehr als ~60fps im Schnitt.

Also kann ich noch warten :)
 
  • Gefällt mir
Reaktionen: Mcr-King
-=:Cpt.Nemo:=- schrieb:
Irgendwie ergibt dein Satz keinen Sinn, aber soweit ich es sehe braucht die 4070Ti den Strom um die Leistung zu erbringen. Wenn man ihr 1/3 ihres Strombedarfs (100W) nicht gibt und erwartet das sie dadurch nur im einstelligen Prozentbereich an Leistung verliert, dann wird man enttäuscht.

Grundsätzlich kann man schon sagen, dass Ada sehr effizient arbeitet und gleichzeitig super skaliert (Teillast, Framelimit usw.) und mit deutlich weniger Watt fast die gleiche Leistung zeigen kann. Heißt zum Beispiel mit 250 Watt anstelle 320 Watt nur 3-4% an Leistung verliert. Dafür aber 25% weniger Strom benötigt. (4080)

Und genau das sieht man ja auch beim Notebook. Der 4080 Chip (4090 mobil) läuft da mit ~150Watt und liefert trotzdem deutlich mehr als nur die Hälfte an Leistung.
 
  • Gefällt mir
Reaktionen: -=:Cpt.Nemo:=-
-=:Cpt.Nemo:=- schrieb:
Irgendwie ergibt dein Satz keinen Sinn, aber soweit ich es sehe braucht die 4070Ti den Strom um die Leistung zu erbringen. Wenn man ihr 1/3 ihres Strombedarfs (100W) nicht gibt und erwartet das sie dadurch nur im einstelligen Prozentbereich an Leistung verliert, dann wird man enttäuscht.
Ok ist einfach noch zu früh am Morgen gewesen haha ne meine halt etwas begrenzen 200 oder so
 
  • Gefällt mir
Reaktionen: -=:Cpt.Nemo:=-
irgendwie versteh ich den Titel nicht...Ich dachte sie testen die Leistung der 4090 in diesem Artikel, nicht die der 3090 ?!?
 
CastorTransport schrieb:
Welche Features fehlen Dir?
-DLSS
-DLAA
-FG
-DLSS Video Upscaling
-NVReflex
-16fach Treiber Forcierte Anisotrope Filteriung in DX11 und DX12 (AMD kann nur bis DX9 irgentwas forcieren)
-Shadercache größer als 250mb einstellbar
-Shadercache an schalten und forcieren im Treiber (AMD kennt nur off/AMD optimiert was bei 90% der dx11/12 spiele bedeutet =off)

und das ist nur das was mir grad innerhalb von 5 sekunden einfällt
 
  • Gefällt mir
Reaktionen: MoinWoll
Slavicgirl schrieb:
Was brauch der durchschnittliche Gamer:

  • Leistung / Watt
  • Leistung Pro / $
  • HDMI 2.1 und DP2
  • AV1 / H265 Decode
  • Evtl noch mehr Raytracing performance und AI Upscaling aber auch da gibt es gemischte Gefühle.
Weder hdmi2.1 noch raytracing Performance braucht ein durschnittlicher gamer
Deswegen hatte ich „Evtl. Raytracing und AI Upscaling“ geschrieben. Ich nutze es nicht aber sicherlich werden es vermehrt sein.

Ja HMDI 2.1 mag stimmen dass dies nicht jeder nutzt da FHD / QHD ohne gehen aber generell ist es komisch wenn die neusten GPUs es nicht unterstützen würden.
Ergänzung ()

Blackfirehawk schrieb:
-DLSS
-DLAA
-FG
-DLSS Video Upscaling
-NVReflex
-16fach Treiber Forcierte Anisotrope Filteriung in DX11 und DX12 (AMD kann nur bis DX9 irgentwas forcieren)
-Shadercache größer als 250mb einstellbar
-Shadercache an schalten und forcieren im Treiber (AMD kennt nur off/AMD optimiert was bei 90% der dx11/12 spiele bedeutet =off)

und das ist nur das was mir grad innerhalb von 5 sekunden einfällt
Wie viele Nutzer stellen dies ein / nutzen dies?
 
  • Gefällt mir
Reaktionen: ReVan1199
Matthias B. V. schrieb:
Wie viele Nutzer stellen dies ein / nutzen dies?
DLSS, DLAA, Reflex und FG wahrscheinlich sehr viele.. ist ja neben Raytracing performance im moment der Selling Point schlechthin
Video Upscaling wird wahrscheinlich auch bei vielen hoch im kurs stehen wenns was taugt
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MoinWoll
Matthias B. V. schrieb:
Was mich freut ist dass endlich bessere Optionen bei VRAM zur Verfügung stehen. Dank TSMC N4 sieht man deutliche Fortschritte bei der Effizienz.
TSMC/Nvidia 4N != TSMC N4
Nvidia 4N ist N5 :D
Ergänzung ()

Blackfirehawk schrieb:
DLSS, DLAA, Reflex und FG wahrscheinlich sehr viele.. ist ja neben Raytracing performance im moment der Selling Point schlechthin
Video Upscaling wird wahrscheinlich auch bei vielen hoch im kurs stehen wenns was taugt
Nein, der große Sellingpoint (abseits ein paar Nerds im Forum) ist stumpf Werbung und dass es Nvidia ist... Nix anderes...
 
pilzsammler2002 schrieb:
Nein, der große Sellingpoint (abseits ein paar Nerds im Forum) ist stumpf Werbung und dass es Nvidia ist... Nix anderes...
Ich kann zwar nur für mich sprechen, aber ich nutze DLSS, FG und Reflex in jedem Spiel, das diese Features unterstützt, und freue mich über 4K mit maximalen Details, vollem Raytracing, konstanten 116 FPS (begrenzt wegen GSync + VSync) und niedriger Latenz. Displayport 2.0 vermisse ich bisher, in Ermanglung einer Grafikkarte, welche in modernen Spielen 240 FPS unter 4K schafft und eines Bildschirms, welcher 240 Hz bei 4K unterstützt, nicht. Aber ich bin vermutlich ein Marketing-Opfer/Forum-Nerd.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: lubi7
pilzsammler2002 schrieb:
TSMC/Nvidia 4N != TSMC N4
Nvidia 4N ist N5 :D
Wüsste nicht wieso TSMC N4 nicht bei Nvidia genutzt werden sollte und Nvidia N5 hat.

Würde sagen entweder ist der Nvidia Prozess der reguläre N4 oder N4P/ N4X oder hat maximal minimale Anpassungen an den Libraries.

Streng genommen sind vermutlich alle N4 ein N5++ Prozess wenn man pingelig sein will.
 
Zurück
Oben