News GeForce RTX 3000 Laptop GPUs: Nvidia fordert Transparenz bei der Leistung jetzt doch ein

boonstyle schrieb:
Eher so 20% wenn man von der 3070 FE als Basiswert ausgeht und damit liegt die dann irgendwo zwischen der 2080 Super und der 2080.

Wenn man dann die 1080ti als Maß´stab nimmt dann kommt das also ziemlich gut hin, denn das ist ungefähr das Niveau.
Ich komme mit meiner 3080 auf knapp 12700 Punkte und eine FE die ich in den Ergebnissen gefunden habe kommt auf ca. 13700 Punkte. Das sind nicht mal 10%, klar ist es vielleicht die langsamste, aber trotzdem ist die 3080 nicht 20% langsamer. Auch hier wird die 3070 mit 13700 Punkten angegeben. Ich hatte auch ein anderes m17 R4 mit UHD Display und dort kam die 3080 Stock auf 12900 Punkte, also noch weniger Unterschied.
Klever schrieb:
Indem ich bei CB auf das Leistungsrating schaue, in FullHD liegt eine mobile 3080 unter hinter Desktop GPU wie der 5700 XT/Radeon VII und der 1080 Ti. In UltraHD ist die mobile 3080 mit max TGP dann auf dem Level der 1080 Ti, aber nur mit max TGP.
Nur hat CB nie die maximale TGP getestet, du schreibst aber von maximaler TGP. Die maximale TGP ist mit dem Dynamic Boost 2.0 165 Watt. Wie oben geschrieben ist der Unterschied zwischen einer FE und der 3080 nicht mal 10 %..

Klever schrieb:
so lassen sich dazu direkte Tests finden wie das von Gamestar. Dort ist die 1080 Ti schneller als die 2080 Mobile in zwei von drei Spielen (Assassin's Creed: Origins wo die 2080 Mobile von einer 2060 Desktop eingeholt wird, und Total War: Warhammer 2), Wolfenstein wo die 2080 Mobil etwas schneller ist als die 1080 Ti, ist ein Vulkan Spiel, das generell Turing viel besser liegt als Pascal.

Wie man es dreht und wendet, in der Regel sind Desktopkarten auch über eine oder gar paar Generation noch schneller, als TGP- und templimitierte Karten von Notebooks, die nötige Stromaufnahme und das wegschaffen von Abwärme kommt ja nicht aus dem Nichts.
Das Problem beim Vergleich zwischen Desktop und Notebook ist nicht nur die GPU sondern auch die CPU, deswegen Vergleiche ich lieber mit Timyspy, weil da die CPU kaum Einfluss auf das Grafikergebniss hat. Es macht schon einen Unterschied ob die CPU nur 45 Watt verbrauchen darf oder ob sie 100+ Watt verbraucht. Dazu kommt noch, ist die Kühlung vom Notebook schlecht sind es die Ergebnisse auch.
Hier mal von Notebookcheck die Ergebnisse zu den Grafikkarten. Zum Vergleich mein Area-51m hatte 10570 Punkte im Grafikscore, also noch mehr als die avg. von den beiden anderen.
 

Anhänge

  • Screenshot (75).png
    Screenshot (75).png
    23 KB · Aufrufe: 224
  • Screenshot (76).png
    Screenshot (76).png
    23,9 KB · Aufrufe: 218
JetLaw schrieb:
Ich komme mit meiner 3080 auf knapp 12700 Punkte und eine FE die ich in den Ergebnissen gefunden habe kommt auf ca. 13700 Punkte. Das sind nicht mal 10%, klar ist es vielleicht die langsamste, aber trotzdem ist die 3080 nicht 20% langsamer. Auch hier wird die 3070 mit 13700 Punkten angegeben. Ich hatte auch ein anderes m17 R4 mit UHD Display und dort kam die 3080 Stock auf 12900 Punkte, also noch weniger Unterschied.
Benchmarks sind halt egal wenn es in Spielen auf 1920x1080 also im tatsächlichen Anwendungsfall anders aussieht.

Der beste synthetische Benchmark ist nur soviel Wert wie er die echte Anwendung wiederspiegelt und genau das ist bei Synthetics eher nicht gegeben.
 
  • Gefällt mir
Reaktionen: Klever
boonstyle schrieb:
Benchmarks sind halt egal wenn es in Spielen auf 1920x1080 also im tatsächlichen Anwendungsfall anders aussieht.

Der beste synthetische Benchmark ist nur soviel Wert wie er die echte Anwendung wiederspiegelt und genau das ist bei Synthetics eher nicht gegeben.
Nur vergleichst du dann eben nicht die Grafikkarte sondern das Gesamtsystem. Also im verlinkten Gamestar Test einen 8750h vs einen 8700k. Desktop mit Notebook CPU vergleichen ist schon etwas unfair. 8750h hat 3,9 Ghz Allcore und 4,1 Ghz SingleCore, der 8700k hat 4,3Ghz im AC und 4,7 im SC. Da ist der synthetische Benchmark besser um einfach die Leistung einer einzelnen Komponente besser vergleichen zu können. Gerade in FHD ist man schon öfter im CPU Limit ,da macht es dann schon einen Unterschied.
 
Wieso unfair? Die meisten dieser Kisten laufen ohne externen Bildschirm und haben FullHD screens, das ist die Abbildung der reellen Fälle. Was interessiert mich der Synthetische Bestfall in 4k wenn das nur 5% der User machen?
 
Ja beim PC ist 4k noch sehr selten verbreitet.
Aber für die PS5 kommen seit Release viele Spiele und Patch für 4k heraus.
Gerade mit einem 4k TV macht das richtig Spass.
 
Ein 35W TDP Cezanne (Ryzen 9 5980HS) ist natürlich langsamer als ein Ryzen 9 5950X (Vermeer), daher sind FullHD-Benches auch nicht aussagekräftig beim Vergleich Laptop GPU vs. Desktop GPU. Vergleiche im eindeutigen GPU-Limit (UltraHD) sind geeigneter:

Unbenannt.png


Tatsächlich ist die Desktop RTX 3070FE im GPU-Limit nur noch 9% schneller als die Laptop RTX 3080 (150W TDP) und keine 20+% (zumindest in diesem Parcour aus drei Games^^).
 
  • Gefällt mir
Reaktionen: bullit1
Es hat nur kein einziges von den Geräten im Test einen 4k Screen sondern fhd und ein Mal wqhd. In freier Wildbahn werden die so ziemlich alle in fhd betrieben daher ist mir persönlich die theoretische 4k Leistung egal.

Ich vergleiche die Geräte in ihrem gewöhnlichen Betriebszustand und da ist der externe 4k Screen eben die Ausnahme.
 
Sieht so aus, als würde die 80W-"3080", dann sogar von der 3060 Desktop locker geschlagen werden.

Bei der nächsten Generation kann man einfach auf alle anderen Karten verzichten. Jede heisst dann 4090!
Was drin ist sieht man dann bei Lieferung: TDP, Cores, Speicher, -Bandbreite... die Anzahl an Variationen kennt dann nicht mal der Hersteller, das wird per AI zugelost. UVP einfach 4090 €, wird schon gezahlt werden und passt so schön.
 
  • Gefällt mir
Reaktionen: Benj
Die OEMs und auch bei Nvidia sind nicht daran interessiert das ein Produkt gut vergleichbar ist.

Und nur Seiten wie CB ist es zu verdanken, dass die Machenschaften dahinter aufgedeckt werden.

Im Mobile-Bereich wird schon seit über 10 Jahren viel mehr Geld verdient als im Desktop-Bereich. Hier sind die Margen größer und auch der Umsatz. Vergleichbare Desktop-PCs haben viel mehr Leistung, sind aber auch viel größer und unflexibler.
 
Sensationell, dass hier einige einen Etikettenschwindel damit abtun, er fiele in der nativen Auflösung nicht ins Gewicht.

Wie man dabei so kurzsichtig sein kann und langfristigen use case einfach ignorieren kann, denn die Anforderungen, auch in FHD, steigen nun mal.

Dazu kommt, dass viele ihren Gaming Laptop auch an einem externen Screen nutzen, spätestens dann wird die krude Argumentationskette zerstört.
 
Artikel-Update: Nvidia hat gegenüber ComputerBase noch einmal bestätigt, dass OEMs, die GeForce RTX 3000 Laptop GPUs einsetzen, die maximale Verlustleistung und den typischen Boost-Takt der mobilen Grafikkarte angeben müssen. Razer hat die technischen Spezifikationen inzwischen im Punkt „Graphics Features“ angepasst, die anderen bis dato säumigen Hersteller werden folgen.
 
JetLaw schrieb:
Was meinst du was viele gedacht haben, als Nvidia die 980m mit 8 GB statt 4 GB angeboten, die muss doch schneller sein. Hat ja mehr Speicher :D
ich kenne viele Leute, die machen die Leistung einer Grafikkarte ausschließlich an der Menge des Video Speichers fest. Das Takt, Chip, Generation, Stromverbrauch und Kühlung eine Rolle spielt wissen die nicht bzw wollen die auch gar nicht wahr haben.
 
boonstyle schrieb:
Es hat nur kein einziges von den Geräten im Test einen 4k Screen sondern fhd und ein Mal wqhd. In freier Wildbahn werden die so ziemlich alle in fhd betrieben daher ist mir persönlich die theoretische 4k Leistung egal.

Ich vergleiche die Geräte in ihrem gewöhnlichen Betriebszustand und da ist der externe 4k Screen eben die Ausnahme.
Du kannst vergleichen was du willst und als Kunde sollte man natürlich ganze Geräte entsprechend mit dem vergleichen, was man später mit der Kiste anstellt.

Aber es ging hier um die Performance der GPU. Und es ist nun mal völlig unerheblich für die GPU ob jetzt 4k oder FHD gemessen wird, der Abstand zur anderen GPU bleibt gleich. Nur der Test um die Performance zu zeigen hat ein Problem mit FHD. Der zeigt eben dort nicht die GPU-Performance.

@Tammy
Was für ein Etikettenschwindel? Wenn die TDP jetzt angegeben wird ist doch alles OK.
Die größeren GPUs haben ja durchaus ihre Daseinsberechtigung. Sie sind nicht viel schneller, aber effizienter.

Wenn Nvidia jetzt hingehen würde und den Namen der Grafikkarten nach Performance zu staffeln und eine 3080 könnte dann GA104 und GA106 beinhalten nur eben bei unterschiedlicher TDP fände ich das nicht gerade besser.
 
SV3N schrieb:
Razer hat die technischen Spezifikationen inzwischen im Punkt „Graphics Features“ angepasst, die anderen bis dato säumigen Hersteller werden folgen.

Nur zur Einordnung. Die RTX 3070 Mobile darf 140 Watt. Und die von Razer Blade Advanced darf 95 Watt. Also alle aufpassen, falls ihr maximale Gamingleistung braucht. Die Angabe ist versteckt unter der Gewichtsangabe. Man muss aber auch berücksichtigen, dass das Gerät recht dünn ausschaut und mit 2 Kg relativ leicht ist. Mehr war vielleicht einfach nicht drin.

111.png
 
  • Gefällt mir
Reaktionen: Kommando
Naja, um ehrlich zu sein sagt einem die Taktrate und Verlustleistung der Karte auch nicht viel, wenn man sich nicht intensiv damit beschäftigt. Das einzige, was Klarheit verschaffen würde, wäre folgendes:

Eine prozentuelle Angabe der verbauten Leistung in Bezug auf eine Referenzkarte von Nvidia, z.B.:
"80/100% Referenzleistung" oder "100/100% Referenzleistung" oder "110/100% Referenzleistung"

Wobei sich das logischerweise nur auf den Auslieferungszustand bezieht, und nicht auf mögliches Übertakten. So eine Angabe wäre einfach verständlich.
 
  • Gefällt mir
Reaktionen: Kommando
franzerich schrieb:
in Bezug auf eine Referenzkarte von Nvidia, z.B.: "80/100% Referenzleistung"...

Und was ist die Referenz von Nvidia? Auf deren Homepage ist nur folgendes zu sehen:

Das Notebook von Razer agiert also am unteren Ende. 80W Minimum + 15W über einen dynamischen Boost ergeben ein Maximum von 95W.

111.png
 
Zuletzt bearbeitet:
Was die Referenzleistung ist, muss Nvidia bestimmen. Idealerweise mit Angaben zu synthetischen Benchmarks (da diese einen gewissen Standard bieten). Und sowas wie ein Referenzmodell gibt es ja - die "Founders Edition". Genau damit muss verglichen werden. Bei der prozentuellen Leistungsangabe zählt dann nur die Leistung, die am Ende wirklich rauskommt im Vergleich zum Referenzmodell. Damit würde man beim Einkauf sofort sehen, woran man ist.

Die Referenzleistung müsste zudem immer die Desktopgrafikkarte sein, und nicht die Notebookgrafikkarte. Jede Notebookgrafikkarte müsste sich mit der Referenzleistung der gleichnamigen Desktopkarte vergleichen.

Damit würden auch Absurditäten auffallen, wie z.B. Notebooks mit einer RTX 2080 Ti, die aufgrund von schlechten Kühllösungen so limitiert wurden, dass sie nicht mal die Leistung einer RTX 2070 erreichen. Dann müsste bei denen auch stehen "70% Referenzleistung" (einer RTX 2080 Ti).
 
Zuletzt bearbeitet:
Also wenn jetzt von jeder 3000er Geforce die Shadermenge, der typische Boost und die maximale Leistungsaufnahme gezeigt werden, kann aber das Endresultat immernoch durch die Kühlleistung zu starken Differenzen der Endgeräte führen das ist sowieso klar.

Aber es ist besser so als dieses Totalverschleiern, bei dem keiner mehr wusste was welches Gerät drin hat, das sah so undurchsichtig aus, dass man nichtmal vom Hersteller auf eine mitten in der Produktion geänderte GPU hingewiesen worden wäre.
Also bevor man das Gerät gekauft und GPU-Z gestartet hätte wär es jedesmal ein Blindflug gewesen.
 
Ist es Pflicht den dauerhaften TDP-Wert anzugeben oder kann ich da mogeln, indem ich nur den kurzfristigen Maximalwert angebe?
 
Zurück
Oben