News GeForce RTX 3000 Mobile: Notebook-GPUs mit maximal 6.144 Shadern und 256 Bit

Oberst08 schrieb:
Also bei CB im Test hat die 6800 gerade mal 10W mehr als die 3070FE verbraucht. Da bin ich mir nicht sicher, ob AMD den Chip nicht auch in Notebooks verbauen wird.
Guter Hinweis. Das wird dann natürlich eine teure Lösung so einen riesigen Chip zu verbauen. Aber erfahrungsgemäss ist ja ein grosser niedrig getakteter Chip effizienter als ein kleiner bis zur Kotzgrenze getakteter bei gleicher Leistung. ..
 
Simanova schrieb:
An alle RTX3070 Besitzer -> Powertarget auf 110Watt stellen (50%) / Ergebnis: Performance einer 3080 (Max-P)
Frage zur Performance damit gelöst. Spart übrigens sehr viel Strom wenn man lediglich Full-HD Monitore nutzt :)
So einfach ist das nicht, denn wieviel Watt sie schlussendlich verbrauchen dürfen, entscheidet der Hersteller vom Notebook. Bei Alienware bspw. gab es beim Area-51m zuerst 150, dann wurde auf 200 erhöht und später auf 180 Watt gesenkt. Also wie man sieht sind auch die 150 Watt nicht "in Stein gemeißelt". Ich denke aber mal 150 Watt wird sie bei allen großen Gamingnotebook Anbietern verbrauchen dürfen.
 
Dito schrieb:
Warum heißt sie dann 3080 und nicht 3060Ti?
Weil keiner eine 3060Ti für 2599€ kaufen würde. Eine 3080 aber schon.
Menschen wollen nun mal beschissen werden.:D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Onkel Föhn, Dimitri Kostrov, Bänki0815 und 9 andere
jabberwalky schrieb:
Menschwn wollen nun mal beschissen werden.:D

Zumal Notebookkäufer es auch gewöhnt sind, dass die selbe GPU einfach nochmal angeboten wird.
840M wurde zur 940M wurde zur 940MX. MX150 wurde zur MX250, .....

Da denkt manch einer Schnell, eine 3060ti hätte keine Chance gegen eine 2070, wenn man ein solches Namenschema gewohnt ist.
 
  • Gefällt mir
Reaktionen: Bänki0815, DynamaxX und Alex Shep
Trotz der Limits vom Laptop sind das schon Geile Karten. Kühlung muss natürlich passen aber sonst..
 
  • Gefällt mir
Reaktionen: Shoryuken94 und jabberwalky
Am schluss sinds 20% von der 2080 zur 3080 im NB. Im Desktop wurde die hauptsächliche Mehrleistung auch nich über die Architektur und Shrink gebracht sondern über den Mehrverbrauch. Bei DLSS und RT könnts allerdings schon anders aussehen.
 
Hieß es bei nVidia nicht irgendwann, man solle die mobilen GPUs nicht mehr abgespeckt anbieten, und dass die mobilen GPUs jetzt 1:1 ihren Desktop-Pendants entsprechen, nur evtl. etwas heruntergetaktet?

Irgendwie habe ich sowas in Erinnerung. Glaube zu Maxwell-Zeiten oder so. Das war ein großes Ding damals, Notebooks, die es mit richtigen Desktop-PCs aufnehmen konnten, auch in der Spieleleistung.

Nunja, das scheint ja jetzt wieder Geschichte zu sein. Wundert mich aber auch nicht, mit der >300W-Brechstange kommt man in so kleinen Gehäusen nun mal nicht weit, wenn man keinen Düsenjet in laptopform haben möchte.

Trotzdem irgendwie enttäuschend.
 
  • Gefällt mir
Reaktionen: Nitschi66 und Kommando
Marcel55 schrieb:
Hieß es bei nVidia nicht irgendwann, man solle die mobilen GPUs nicht mehr abgespeckt anbieten, und dass die mobilen GPUs jetzt 1:1 ihren Desktop-Pendants entsprechen, nur evtl. etwas heruntergetaktet?
Genau das meinte ich auch. War ja nah dran und mit dieser Generation entfernt man sich davon seeeehr weit...
 
@Marcel55 Das hatte aber niemand ernsthaft erwartet nachdem die TDP Werte bekannt wurden oder? :D
 
  • Gefällt mir
Reaktionen: Vendetta192, HolySkillet, Floppes und 2 andere
Coeckchen schrieb:
Am schluss sinds 20% von der 2080 zur 3080 im NB. Im Desktop wurde die hauptsächliche Mehrleistung auch nich über die Architektur und Shrink gebracht sondern über den Mehrverbrauch. Bei DLSS und RT könnts allerdings schon anders aussehen.
Ja, so sehe ich das auch. RTX und DLSS werden hier meiner Meinung nach massiv gepushed. Alles andere eher weniger.
 
Weiß man eigentlich schon, ob auch die nächste grüne 50er GPU eine RTX sein wird?
 
Simanova schrieb:
An alle RTX3070 Besitzer -> Powertarget auf 110Watt stellen (50%) / Ergebnis: Performance einer 3080 (Max-P)
Frage zur Performance damit gelöst. Spart übrigens sehr viel Strom wenn man lediglich Full-HD Monitore nutzt :)

Die Frage ist nur, warum sollte man wegen den paar Cent auf die Leistung verzichten?
Eine Grafikkarte kann niemals genug Leistung bringen.

Wenn die Grafikkarte unter 1080p nichts zu tun hat, rüstet man auf 4k @ 120 Hz auf und erfreut sich der Grafik. Schließlich ist die Grafik das, was die Grafikkarte zeigen soll.

Und wer mit der aktuell stärksten Hardware auf einem 1080p Monitor Minecraft oder Fortnite spielt... naja... der spielt das Richtige, würde ich es mal nennen. :D
 
  • Gefällt mir
Reaktionen: bad_sign
Die 3080M bitte als 3070 ti mit einem Powertarget von 220 W releasen. Danke.
 
  • Gefällt mir
Reaktionen: k0n
Hm, vielleicht lässt sich die aufwändige 320bit GDDR6X Speicheranbindung nicht so gut in einem Notebook realisieren weswegen der größte Ausbau bei 256bit und GDDR6 bleiben wird, was ja bei AMD schon den Vollausbau bedeuten würde, vielleicht aber auch nur die Kombination daraus und dem sehr großen GA102 Chip der ja mit 628mm² deutlich über dem bisherigen Maximum, dem 545mm² großen TU104, liegt.
Den 754mm² großen TU102 der 2080Ti gab es ja auch nie im Notebook, der ist aber definitiv eine andere Liga
 
@ork1957 Du übersiehst das offensichtliche. Bei dem Verbrauch der großen Karten ist eine Realisierung in einem Laptop ungeachtet der Größe grober Unfug :D

150W ist schon Extrem für einen Laptop. Und diese Karten sind eben das Maximum was Nvidia ihren Karten realistischerweise (Skalierung einberechnet) zutraut
 
  • Gefällt mir
Reaktionen: Shoryuken94
@PS828 Wenn man danach geht hätte es das 1080 SLI Laptop nie geben dürfen, gab es aber.
Ich glaube vom Strom her hätte man TU102 zähmen können, ist aber möglich, dass die Mehrperformance über eine gleich hungrige TU104 minimal ist und daher relativ sinnfrei ist.
Daher ja, Verbrauch ist wahrscheinlich der Hauptgrund gegen einen 600mm²+ Chip in einem Laptop
 
  • Gefällt mir
Reaktionen: PS828
Dito schrieb:
Warum heißt sie dann 3080 und nicht 3060Ti?
Ich nehme Mal stark an, daß der Preis eines Laptops mit "mobile 3080" sich deutlich an dem Preis eines gut ausgestattetem 3080er Desktop Systems orientieren wird. Und da hört sich 3080 MaxQ super-duper usw. eben besser an als 3060. Aber davon Mal abgesehen, schade daß NVIDIA es nicht mit großem Die und Undervolting/Underclocking geschafft oder versucht hat
Ergänzung ()

Mit solchen Entscheidungen von NVIDIA hoffe ich jetzt daß nicht nur AMD, sondern vielleicht auch Intel NVIDIA Dampf bei mobilen dGPUs macht. Vor allem diese "mobile 3060" schreit geradezu nach einem starken Mitbewerber. Allerdings werden solche Gurken wie Intel's Xe dGPU mit LPDDR4 hier nicht helfen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Onkel Föhn
GA104 im Vollausbau mit 16GB??! 😮😮 Das ist genau die Karte die ich mir von der RTX 3070Ti erhofft habe. 😪 Die hätte ich so gerne im Rechner...
 
Zuletzt bearbeitet: (Rechtschreibfehler behoben)
  • Gefällt mir
Reaktionen: k0n und kingkohn
RTX 3060 Mobile, dazu bitte nen i5-10500H / i7-10750H, 16 GB Ram, 1 TB M2 SSD und nen 120 / 144 Hz Display, fertig ist mein neues Gaming Notebook für die Arbeit.. ^^
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: aid0nex
ork1957 schrieb:
@PS828 Wenn man danach geht hätte es das 1080 SLI Laptop nie geben dürfen, gab es aber.
Ich glaube vom Strom her hätte man TU102 zähmen können, ist aber möglich, dass die Mehrperformance über eine gleich hungrige TU104 minimal ist und daher relativ sinnfrei ist.
Daher ja, Verbrauch ist wahrscheinlich der Hauptgrund gegen einen 600mm²+ Chip in einem Laptop

Die 1080 beruht aber auf den GP104 mit 314mm². Weder der GP102 noch der GP100 sind für Notebooks erschienen.

Zugleich glich das Acer Predator x21 mit seinen 10000€ eher eine Machbarkeitsstudie, als mit einem praktikablen Mobilgerät. Schon allein der Transportkoffer passte nicht mehr ins Handgepäck. :D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Onkel Föhn, PS828, Friedli und 2 andere
Zurück
Oben