News GeForce RTX 4090: Nvidias neue schnellste GeForce* auch im Notebook

CDLABSRadonP... schrieb:
Häh? Die 3080 16GiB für Mobile war eine Karte, die mit der eigentlichen 3080 nichts zu tun hatte. Sie nutzte den GA104-Chip der 3070 8GiB Desktop, an Stelle des GA102 von 3080 10GiB Desktop.
In positiver Hinsicht wurde da gar nichts getäuscht...
Sie hieß 3080 und hatte 16GB Vram. Da hat keiner geheult.

Nun heißt sie 4090 und hat 16GB Vram. Und Leute heulen.

Heuchelei! ;-)
 
ZRUF schrieb:
@CDLABSRadonP...
Wer im Laptop insgesamt die gleich Leistung erwartet, wie im Desktop hat aber grundlegend einen Fehler gemacht. Bleibt ja dabei, dass man da auch von der gesamten Leistungsaufnahme limitiert ist. In aller Regel ist bei max. 250W Schluss. Viel öfter sogar irgendwo zwischen 180 und 220W. Und das eben für das gesamte System. Selbst mit identischem Chip wäre es nicht möglich die gleiche Leistung zu erhalten.

Und hey, ich bin Laptop-Fan und habe seit langem keinen Desktop mehr für den Alltag. Aber ich weiß auch, welche Kompromisse man mit einem Laptop eingeht.
Fehler hin oder her. Du weißt das, ich weiß das, sowie die Leute hier im Forum wissen das.

Der Otto-Normal-Spieler macht sich darüber aber keine Gedanken und erwartet (meist?) dieselbe Leistung.
Ein "M" dahinter macht da schon einen großen Unterschied. So weiß jeder sofort, dass sich die GPU irgendwie unterscheidet und man Informiert sich auch eher darüber.
 
  • Gefällt mir
Reaktionen: Chesterfield, dersuperpro1337 und bikerider
Caramelito schrieb:
Sie hieß 3080 und hatte 16GB Vram. Da hat keiner geheult.

Nun heißt sie 4090 und hat 16GB Vram. Und Leute heulen.

Heuchelei! ;-)
Natürlich haben Leute Nvidia schon vorher dafür kritisiert. Wichtig ist nur zu verstehen, was dafür ist: Natürlich nicht die absolute Speichergröße, sondern das Verbauen eines anderen Chips.
jo0 schrieb:
Ein "M" dahinter macht da schon einen großen Unterschied. So weiß jeder sofort, dass sich die GPU irgendwie unterscheidet und man Informiert sich auch eher darüber.
Deshalb finde ich das m dahinter ja auch besser. Übrigens nur besser, nicht optimal. Das mit So weiß jeder sofort, dass sich die GPU irgendwie unterscheidet ist meiner Erfahrung in Forenberatung zu Notebooks nicht der Fall gewesen. Es war ein paar klar, andere dachten einfach, dass das m nur für wurde in einem Notebook verbaut stünde...
(was auch Sinn ergäbe, denn MXM-Karten passen nun mal nicht in Desktops)
 
  • Gefällt mir
Reaktionen: dersuperpro1337
Wäre eigentlich cool, wenn es die mobile GPUs auch für den Desktop gäbe oder?

Das Verältnis aus FPS/Watt ist bei den mobilen Versionen doch meist besser, wenn ich mich nicht irre.
 
stephan902 schrieb:
Das Verältnis aus FPS/Watt ist bei den mobilen Versionen doch meist besser, wenn ich mich nicht irre.
Das stimmt, liegt aber in erster Linie an anderen Watttargets. Im Gegensatz zu früher lassen sich die Desktopkarten entsprechend mittlerweile daher manuell durchaus auf Notebookniveau tunen. (ansonsten wäre ich persönlich wahrscheinlich auch nicht wieder vom Notebookgaming zum Desktopgaming zurückgekehrt)
stephan902 schrieb:
Wäre eigentlich cool, wenn es die mobile GPUs auch für den Desktop gäbe oder?
Ansonsten sind die mobilen Karten auch oftmals noch ein Bisschen auf die niedrigeren Watttargets ausgelegt. Also auf den PCBs sitzen angepasste Spannungswandler und so weiter. Das macht aber eher wenig aus, ist so das letzte Feintuningpotential.
→ es wäre sinnvoller, wenn Boardpartner statt 30x die fast identische Karte herauszubringen auch durchoptimierte GreenEditions vorstellen würden.
 
@jo0

Bei der Bezeichnung bin ich auch absolut bei dir. Voll und ganz.
Wie ich ja auch zuvor kritisiert habe, dass ich das 30x0 Laptop als eher suboptimal sehe und es eben am Anfang, als die RTX 3080 und RTX3070 für den Laptop rauskamen diesen Zusatz noch gar nicht gab.
 
  • Gefällt mir
Reaktionen: jo0
jo0 schrieb:
Nein, ist es nicht. Das ist bewusste Täuschung von Käufern. Die Leute denken nur sie bekommen mehr Leistung die sie dann aber nicht haben. Wie oft habe ich es schon erlebt, dass die Leute denken, dass sie dieselbe Leistung im Notebook bekommen wie auf den Desktop. Und dann kommen fragen wie: "Wieso habe ich so wenig FPS, ich habe doch eine 3070." Nein, hasst du nicht, denn die 3070 Mobile GPU ist von der Leistung eher mit der 3060 Desktop zu vergleichen...
Das kann schon deshalb nicht sein, weil die RTX3060m eine aufgebohrte RTX 3060D ist

RTX 3060D: 3584 Shader, 28 RT-Kerne, 112 Tensorkerne...
RTX 3060m: 3840 Shader, 30 RT-Kerne, 120 Tensorkerne...

Nvidia mischt die Karten neu. RTX 3060TI erhalten den GA103 aus der RTX 3080TIm, die RTX 3060D den GA104 aus der RTX 3070D, RTX 3080m.
 
Wurde nicht mal irgendwann gesagt, dass es keine mobile Varianten mehr geben soll, sondern Notebook-GPUs gleichwertig zu dessen Desktop-Vertretern sein sollen?

Nunja, dass das nicht klappt im Falle einer 4090 ist durchaus logisch. Aber warum bietet man dann überhaupt eine 4090 für Notebooks an? Dann könnte man dich einfach eine 4080 als 4080 vermarkten und das ist dann eben auch das Ende, mehr geht nur beim Desktop.

Alles andere bringt doch nix. Nur damit man behaupten kann das Notebook hätte eine 4090 die dann aber in Wirklichkeit so schnell ist wie eine 4070ti? Blödsinn.
 
War wie damals die GTX280M, welche eigentlich noch ne 9000er Karte war...
 
CDLABSRadonP... schrieb:
...bei Ampere hingegen zum alten System zurückgekehrt, nur ohne M im Namen. Und das ist der irreführenste Schritt überhaupt gewesen. Und ja, dafür sollten sie juristisch belangt werden.
jo0 schrieb:
Ein "M" dahinter macht da schon einen großen Unterschied. So weiß jeder sofort, dass sich die GPU irgendwie unterscheidet und man Informiert sich auch eher darüber.

Das offizielle Suffix ist eigentlich "Laptop GPU". So steht es beispielsweise auf der Nvidia Homepage und auch im Geräte-Manager. Datenbanken wie notebookcheck.com oder der (englischsprachige) Lenovo Online Shop nutzen ebenfalls diese Bezeichnung.

CDLABSRadonP... schrieb:
In positiver Hinsicht wurde da gar nichts getäuscht...

Da gab es bei Nvidia tatsächlich Fälle, wo man mehr bekam als erwartet. Die 3060 Laptop hat mehr Cores als die Desktopvariante (3840 vs. 3584) & das gleiche bei der GTX 1070 Mobile vs. Desktop (2048 vs 1920). Durch die eingeschränkte Leistungsaufnahme und Takt kam natürlich trotzdem nicht an die Desktopvarianten ran. Oh und die RTX 2050 Mobile ist gar nicht Turing sondern Ampere (GA107 bzw. RTX 3050).
 

Anhänge

  • 123.png
    123.png
    12 KB · Aufrufe: 109
  • 456.png
    456.png
    56,7 KB · Aufrufe: 111
  • 789.png
    789.png
    31,5 KB · Aufrufe: 112
NguyenV3 schrieb:
Da gab es bei Nvidia tatsächlich Fälle, wo man mehr bekam als erwartet. Die 3060 Laptop hat mehr Cores als die Desktopvariante (3840 vs. 3584) & das gleiche bei der GTX 1070 Mobile vs. Desktop (2048 vs 1920). Durch die eingeschränkte Leistungsaufnahme und Takt kam natürlich trotzdem nicht an die Desktopvarianten ran. Oh und die RTX 2050 Mobile ist gar nicht Turing sondern Ampere (GA107 bzw. RTX 3050).
Das ist mir alles bekannt. Wobei die 2050 Mobile ohnehin einen unfassbaren Blödsinn dargestellt hat, erschien sie doch nach Ampere-Vorstellung.
NguyenV3 schrieb:
Das offizielle Suffix ist eigentlich "Laptop GPU". So steht es beispielsweise auf der Nvidia Homepage und auch im Geräte-Manager. Datenbanken wie notebookcheck.com oder der Lenovo Online Shop nutzen ebenfalls diese Bezeichnung.
Auch das ist mir bekannt. Ist halt vorprogrammiert, dass es unteren den Tisch fällt. Der Name ist schlicht und ergreifend zu lang.
 
In der Überschrift steht ein "*" nach GeForce, doch im Artikel wird der Stern nirgendwo aufgelöst!?
 
  • Gefällt mir
Reaktionen: heulendoch
Marcel55 schrieb:
Aber warum bietet man dann überhaupt eine 4090 für Notebooks an?
Marketing.

Die 4090 ist die schnellste Karte aller Zeiten und völlig außer Konkurrenz.
Den Namen nimmt man doch gerne auch im Laptop her, auch wenn es ein ganz anderer Chip ist.
Ich weiß jetzt schon, dass AMD eine 7900 xtx Laptop nicht annähernd zum gleichen Preis verkaufen können wird, selbst wenn sie schneller wäre.

Die kapitalisieren ihren Vorsprung hier gnadenlos. Aus Marketingsicht ziemlich genial. Das m wegzulassen ist sogar noch genialer, weil jeder die Laptop 4090 sofort mit der Desktop Variante und deren riesigen Balken assoziiert.
 
Chesterfield schrieb:
das ist Marketing ala Nvidia :D.
Nach dem 4080 12Gb fail trotzdem mal Laien "bewusst täuschen" indem man einfach mal eine kastrierte 4080 als 4090 deklariert. traurig... Nvidia könnte zumindest sowas wie ein RTX4090M(obile) draus machen um nicht bewusst der Täuschung bezichtigt zu werden
Und trotzdem werden viele Leute kaufen und Nvidia wird sich bestätigt fühlen.
 
Mir ist relativ egal, wie die Modelle am Ende heißen werden.

Wichtig wären mir persönlich Karten, die keinerlei Abstriche für 1440p mit sich bringen (egal ob bei Leistung oder VRAM) und dabei MAXIMAL 130W verbrauchen. Besser wären ~110 bis 120W.

Darüber finde ich die Dinger auch mit UV bei den Laptopchassis, wie sie momentan gebaut und gekühlt werden, schwer halbwegs leise zu kühlen.
 
Taxxor schrieb:
Ist doch bei AMD nicht anders, eine 6800M ist ja auch deutlich schwächer als selbst eine 6700XT und eher auf dem Niveau einer 5700XT.
Schmarrn, meine 6800M macht im Time Spy Graphics 12000 Punkte und liegt somit genau auf 6700XT Niveau.

MfG Föhn.
 

Anhänge

  • Time Spy 6700XT.jpg
    Time Spy 6700XT.jpg
    329,9 KB · Aufrufe: 113
  • Time Spy.jpg
    Time Spy.jpg
    590,2 KB · Aufrufe: 118
  • a Fire Strike.jpg
    a Fire Strike.jpg
    582,7 KB · Aufrufe: 111
Onkel Föhn schrieb:
Schmarrn, meine 6800M macht im Time Spy Graphics 12000 Punkte und liegt somit genau auf 6700XT Niveau.
Aha, und wer spielt Timespy?

Screenshot 2022-12-12 205514.jpg


In 1080p wäre die 6700XT sogar 26 statt 24% schneller.
 
Welches Level hast du jetzt und können wir ein Raid zusammen machen?
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Zurück
Oben