News GeForce RTX 3000 Mobile: Notebook-GPUs mit maximal 6.144 Shadern und 256 Bit

SVΞN

Redakteur a.D.
Registriert
Juni 2007
Beiträge
22.686
  • Gefällt mir
Reaktionen: aid0nex, eastcoast_pete, BorstiNumberOne und 3 andere
Besonders auffällig ist die mobile GeForce RTX 3080, die nicht wie die Desktop-Variante auf den großen GA102 mit 8.704 aktiven Shadern, sondern auf den von GeForce RTX 3070 und 3060 Ti aus dem Desktop bekannten GA104 setzt, der hier allerdings den Vollausbau mit 6.144 aktiven Shadern (-30 Prozent zur RTX 3080 FE) statt 5.888 (3070) respektive 4.864 (3060 Ti) nutzt.
Schade. Die RTX 3080 ist ja sowieso schon quasi werksseitig übertaktet. Hätte nVidia für die Mobile-Version einfach das Power-Limit um 20%+ gesenkt, würden sie wahrscheinlich bei deutlich niedrigerem Stromverbrauch nur unwesentlich an Leistung verlieren. Naja, wenigstens klingen die Namen jetzt besser. "Max-Q/P" fand ich etwas dämlich.
 
  • Gefällt mir
Reaktionen: Onkel Föhn und Mcr-King
Eine geile GPU.

Mal abgesehen, von dem Marketing blabla und den 6144 Shadern (wenn man nur FP32 betrachtet) ist die absolute Weltklasse, mit 150 Watt.

Mal schauen, wie sich RTX3070m gegen RTX3080m bei gleichem Verbrauch schlägt.

Die Qualität der Chips macht hier dann wohl den Unterschied. Im Preis und in der Leistung.

mfg
 
  • Gefällt mir
Reaktionen: aid0nex, JetLaw, Mcr-King und eine weitere Person
Sehr schade das die 3060 nur 6gb VRAM hat. Ich bin auf erste tests gespannt ob das denn ausreicht.
 
  • Gefällt mir
Reaktionen: Mcr-King
Uiii! Da sind sie auf einmal vorbei die tollen Zeiten, in denen erstmals die Notebookkarten so stark waren, dass sie wirklich nah an den Desktopmodellen waren. Habe noch eine 2070er im 15,6 Zoll Notebook und das Ding ist auf FHD immer noch eine Macht und war damals wirklich ein Knaller.

Ich vermute, der Stromdurst der neuen GPUs ist einfach so hoch, dass ein bisschen runtertakten nicht hilft um die grosse 3080er irgendwie kühlbar zu machen - von Akkubetrieb brauchen wir gar nicht reden. Das wird bei den 6800 / 6900ern aber auch nicht anders sein, vermute ich einfach mal.

Das Speicherinterface der 3060 wird bei den paar Shadern dann wohl auch kein Problem darstellen, die Karten sind ja wirklich stark beschnitten. Von RT brauchen wir mobil dann aber wohl auch nicht zu träumen...
 
  • Gefällt mir
Reaktionen: muh0rsen, Dimitri Kostrov, aid0nex und 5 andere
Bin schon mächtig auf die Chips gespannt. Im Notebookbereich müsste da schon ein gewaltiger Sprung drin sein, auch wenn sie gegenüber den Desktop beschnitten sind (bei der Stromaufnahme war das ja schon im vorhinein klar)😃.
Fragt sich nur was Q1 bedeutet. Wird wieder der 31.03.2021 werden...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DerMonte
naicorion schrieb:
Uiii! Da sind sie auf einmal vorbei die tollen Zeiten, in denen erstmals die Notebookkarten so stark waren, dass sie wirklich nah an den Desktopmodellen waren.

Gemeckert wird auch immer. Eigentlich ändert sich genau Null. Nvidia hat noch nie den großen (100/102/110) Chip für eine Mobile 80er Karte verwendet.

Das ist halt den preis den man nun zahlt, weil die 3080 nun auch auf den großen Chip setzt. Erst wurde gemeckert das die 80er Karten nur noch auf die kleinen 104er (Mittelklasse) Chips setzen, dann wurde gejubelt, dass eine Mobile 80er Karte den gleichen Chip wie die Desktop Karte nutzt und jetzt wird wieder gemeckert. Dabei hat sich seit über 10 Jahren eigentlich nichts geändert. Im Notebook nutzt Nvidia die Mittelklasse Chips. Wie man den Spaß nun nennt ist doch völlig wurst.

Hätten Sie die 3070 einfach 3080 genannt, dann würde sich wieder keiner Aufregen, weil ist ja das gleiche wie im Desktop.

Einfach mal die Marketingnamen ausblenden und gucken was man wirklich bekommt.
 
  • Gefällt mir
Reaktionen: mic3107, bensen, DynamaxX und 7 andere
Dann hoffe ich, dass wir die RTX 3080 Mobile im Desktop noch als 3070 Ti/Super mit mehr Takt sehen werden. :)
 
  • Gefällt mir
Reaktionen: k0n
Sehr interessant, wird spannend wie viel Leistung da noch übrig bleibt und natürlich auch wie die zu kühlen sind. Das es abgespeckt sein muss war aber ja auch schon irgendwie klar eben wegen der Kühlung. Und dem Akku natürlich auch.

@SV3N
Ist es gewollt das "TBP" als "Total Graphics Power" beschrieben wurde statt "Total Board Power"?
 
  • Gefällt mir
Reaktionen: Onkel Föhn, Mcr-King und SVΞN
Shoryuken94 schrieb:
Gemeckert wird auch immer. Eigentlich ändert sich genau Null.
Gemecker kann ich nicht erkennen in meinem Post. Ist auch nicht unsachlich. Ich persönlich bedauere einfach, dass der Abstand zwischen Desktop und Mobil wieder grösser wird denn bei den 2000ern war er angenehm klein.

Marketingnamen ausblenden wird in der Tat notwendig sein, denn die 3080 wird teuer werden aber sehr viel weniger als die Desktopvariante leisten. Das muss man doch hier sagen dürfen?
 
  • Gefällt mir
Reaktionen: Dimitri Kostrov, ZRUF, Ein_Freund und eine weitere Person
TøxicGhøst schrieb:
Ist es gewollt das "TBP" als "Total Graphics Power" beschrieben wurde statt "Total Board Power"?

Es sollte „TGP“ heißen. Danke für den Hinweis.
 
  • Gefällt mir
Reaktionen: Onkel Föhn, Mcr-King und TøxicGhøst
Der GA104 im Vollausbau mit 16GB wäre eigentlich genau das, was ich gerne im Desktop als RTX 3070 Ti/Super kaufen würde. :(
 
  • Gefällt mir
Reaktionen: JackTheRippchen, Kommando, kingkohn und 2 andere
naicorion schrieb:
Das wird bei den 6800 / 6900ern aber auch nicht anders sein, vermute ich einfach mal.
Also bei CB im Test hat die 6800 gerade mal 10W mehr als die 3070FE verbraucht. Da bin ich mir nicht sicher, ob AMD den Chip nicht auch in Notebooks verbauen wird. Auch könnte man den 6800XT oder sogar 6900XT Chip mit reduziertem Takt vielleicht sogar noch etwas sparsamer bekommen, das kommt auf die Takt-/Spannungskurve der Chips an, bzw. wo der Sweet Spot liegt. Ausschließen würde ich das nicht, aber ich bin gespannt, wie sich der Infinity Cache da schlägt bzw. wie viel der verbraucht. Zunächst müssten die Chips aber erst mal vernüftig lieferbar sein...
 
  • Gefällt mir
Reaktionen: or2k
Na da bin ich ja mal gespannt wie eine 3070 im Vergleich zu einer 2070 refresh abschneidet. Und natürlich der Preis und Verfügbarkeit.
 
An alle RTX3070 Besitzer -> Powertarget auf 110Watt stellen (50%) / Ergebnis: Performance einer 3080 (Max-P)
Frage zur Performance damit gelöst. Spart übrigens sehr viel Strom wenn man lediglich Full-HD Monitore nutzt :)
 
Tja, Notebooks können nun mal keine 375Watt bereitstellen. Und dann noch 3 2000rpm Lüfter dazu.
 
  • Gefällt mir
Reaktionen: Onkel Föhn, andi_sco, lynx007 und 2 andere
Oberst08 schrieb:
Also bei CB im Test hat die 6800 gerade mal 10W mehr als die 3070FE verbraucht. Da bin ich mir nicht sicher, ob AMD den Chip nicht auch in Notebooks verbauen wird. Auch könnte man den 6800XT oder sogar 6900XT Chip mit reduziertem Takt vielleicht sogar noch etwas sparsamer bekommen, das kommt auf die Takt-/Spannungskurve der Chips an, bzw. wo der Sweet Spot liegt. Ausschließen würde ich das nicht, aber ich bin gespannt, wie sich der Infinity Cache da schlägt bzw. wie viel der verbraucht. Zunächst müssten die Chips aber erst mal vernüftig lieferbar sein...
Also beim undervolting Test von Igor hat die RX 6800 bei Borderlands 3 nur noch 180 Watt gezogen und war nur 2-3% unter der RXM 6800 Stock.
AMD RX 6800 Overclocking und Undervolting - von über 240 Watt bis unter 180 Watt ist alles drin | Seite 2 | igor´sLAB

Insofern denke ich das eine RX 6800 mit angepasster Spannung und dazu noch reduzierter Takt durchaus einen Weg in den Laptop Markt finden könnte. Bei den größeren Modellen müsste man dann gucken wo der Sweet Spot liegt und ob es dann auch so leicht geht.
 
Wird sicher Leistungsstark, was mich aber stört, sind neuerdings die Fake Shader angaben seitens NV. Ist zwar nicht ganz Falsche aber doch mehr Marketing als alles andere. Nach Nvideas neuer Zählart haben 3080 und 3090 ziemlich genau doppelt so viele Shader wie ihr Konkurentinnen 6800xt und 6900xt. Bei annähernd gleicher Performance, scheinen nach der Darstellung die AMD Shader fast doppelte so stark zu sein.. Das wäre dann negativ Marketing ;)
 
  • Gefällt mir
Reaktionen: Onkel Föhn und andi_sco
Kann man auf den Geräten dann auch Spiegeleier braten?

Puhh, zusammen mit der CPU kommt ja einiges an Verbrauch zusammen
 
  • Gefällt mir
Reaktionen: Dimitri Kostrov
Warum heißt sie dann 3080 und nicht 3060Ti?
 
  • Gefällt mir
Reaktionen: dersuperpro1337
Zurück
Oben