News GeForce RTX 3000 Mobile: Notebook-GPUs mit maximal 6.144 Shadern und 256 Bit

yurij schrieb:
Tja, Notebooks können nun mal keine 375Watt bereitstellen. Und dann noch 3 2000rpm Lüfter dazu.
Hierzu bleibt nur zusagen, siehe Apple M1, sobald sich ARM durchsetzt, hat man massig Leistung und braucht keinen großen Tower mehr um zum Spielen oder professionell zu arbeiten.
 
Simulatorenfan schrieb:
Hierzu bleibt nur zusagen, siehe Apple M1, sobald sich ARM durchsetzt, hat man massig Leistung und braucht keinen großen Tower mehr um zum Spielen oder professionell zu arbeiten.
Wo bitte sehe ich, das ich zum spielen mit einem M1 auskommen? Habe Battlefield5 noch nie mit RTX und über 60fps auf einem M1 gesehen.
 
  • Gefällt mir
Reaktionen: PS828 und bensen
Simulatorenfan schrieb:
Hierzu bleibt nur zusagen, siehe Apple M1, sobald sich ARM durchsetzt, hat man massig Leistung und braucht keinen großen Tower mehr um zum Spielen oder professionell zu arbeiten.
Ja für den Consumer geht die Reise wohl langsam richtung vollintegrierte low-power SoCs. Adler Lake schlägt diesen Weg bereits ein. AMD wird sicher folgen. Als nächstes wird der Chipsatz vollständig in der CPU verschwinden. AI integriert. Dann kommt on package DRAM.

Prosumer und Gamer werden aber noch eine Weile auf 600Watt Kisten sitzen, weil sie einfach den längsten Balken haben :)
 
Bei ARM und speziell dem M1 sollte man erstmal abwarten wie die Leistung abseits von hardwarebeschleunigten Anwendungsfällen aussieht.

Wäre ARM bei der praktischen Rechenleistung nämlich wirklich so dermaßen überlegen, würden ARM-Gehversuche in Servern nicht immer im Sande verlaufen bzw. ARM dort solch ein Nischendasein fristen...
 
  • Gefällt mir
Reaktionen: Laphonso, Onkel Föhn, PS828 und 3 andere
@SV3N

"... und die mobile GeForce RTX 3060 nutzt nicht den GA104 wie die GeForce RTX 3060 Ti im Desktop sondern den neuen GA106, verliert gegenüber der 3060 Ti im Desktop so aber fast 40 Prozent Shader und 64 Bit Speicherinterface."

Wäre es nicht viel sinnvoller zu schreiben: die RTX 3060 nutzt den GA106, genauso wie die RTX 3060 im Desktop allerdings mit weniger Shadern (3.072 im 3.840)? Dann spart man sich auch den Satz mit dem unterschiedlichen Speicherinterface.

Ich nehme stark an der Vergleich rührt daher, weil die non Ti noch nicht auf dem Markt ist? Ich denke man könnte die Info einfach ergänzen ohne den Ti Vergleich zu streichen.

Auch interessant zur Einordnung für Leser wären Infos aus einem älteren Artikel von dir: laut Gerüchten wird die Desktop RTX 3050 Ti mit GA106 und 3.584 FP32-ALUs erscheinen. (vs 3.072 zur mobile RTX 3060) Link zum Artikel
 
  • Gefällt mir
Reaktionen: Friedli und bensen
Artikel-Update: Benchmarks bestätigen Spezifikationen
Erste Ergebnisse aus der Benchmark-Datenbank Geekbench 5 bestätigen ein Teil der Spezifikationen der mobilen GeForce RTX 3070. Einmal mehr konnte der Twitter-Nutzer @TUM_APISAK diese Informationen als Erster ausfindig machen und über den Kurznachrichtendienst teilen.

Demnach verfügt die mobile GeForce RTX 3070 über 40 CUs zu je 128 CUDA-Kernen, was wie zuvor vermutet in insgesamt 5.120 FP32-ALUs resultiert. Auch der 8 GB große GDDR6-Speicher und das 256-Bit breite Speicherinterface können demnach als gesichert angesehen werden.

[Embed: Zum Betrachten bitte den Artikel aufrufen.]

Mit einem Ergebnis von rund 111.000 Punkten unter OpenCL liegt die mobile GeForce RTX 3070 zumindest in dieser Disziplin auf Höhe mit der GeForce RTX 2080 (Test) für den Desktop. Eine vollwertige GeForce RTX 3070 (Test) ist unter OpenCL rund 25 Prozent schneller und erreicht 137.000 Punkte.

Es dürfte nur noch eine Frage der Zeit sein, bis sich auch die Eckdaten der mobilen GeForce RTX 3080 und GeForce RTX 3060 durch erste Einträge in den entsprechenden Datenbanken bestätigen.
 
  • Gefällt mir
Reaktionen: Yesman9277
Weil der Leistungsunterschied größer sein wird ;)
Die mobile dürfte dann 3060Ti Desktop-Niveau haben.
 
Es gab mal eine Zeit da war die GTX 1070 mobile sogar minimal schneller als die Desktop Karte. RTX 3070 in einem Laptop wäre aber auch zu schön gewesen.
 
  • Gefällt mir
Reaktionen: Bänki0815 und lord_aKiRa
ork1957 schrieb:
Hm, vielleicht lässt sich die aufwändige 320bit GDDR6X Speicheranbindung nicht so gut in einem Notebook realisieren weswegen der größte Ausbau bei 256bit und GDDR6 bleiben wird, was ja bei AMD schon den Vollausbau bedeuten würde, vielleicht aber auch nur die Kombination daraus und dem sehr großen GA102 Chip der ja mit 628mm² deutlich über dem bisherigen Maximum, dem 545mm² großen TU104, liegt.
Den 754mm² großen TU102 der 2080Ti gab es ja auch nie im Notebook, der ist aber definitiv eine andere Liga
Möglich schon. Aber für die Rechenleistung, die bei der TDP möglich ist, braucht man nicht mehr Speicherdurchsatz als 256 Bit mit GDDR6 bieten können.
Der einzige Vorteil des GA102 wären nochmal deutlich niedrigere Taktraten bei dafür mehr SM. Aber das lohnt kaum. Der Vollausbau GA104 ist schon die vernünftige Lösung.
Ergänzung ()

Dito schrieb:
Weil der Leistungsunterschied größer sein wird ;)
Die mobile dürfte dann 3060Ti Desktop-Niveau haben.
Bei 1500 MHz hat die 3800 mobile schon die Rechenleistung der 3060Ti. Ob die da nicht drüber kommt?
Zumal auch in der Vergangenheit so gut wie alle mobile Modelle aufgrund des niedrigen Taktes etwas langsamer waren als die Desktop Modelle. Wüsste nicht warum 3060Ti mobile ein passender Name sein sollte.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: or2k
Sind wir gespannt auf die VRAM-Jünger, denn jetzt kommt se: Die 3080 mit mehr VRAM als sie Dampf unter der Haube hat. Je größer der Teller, desto besser das Schnitzel, right?

Und frohes Neues! :schluck:
 
  • Gefällt mir
Reaktionen: lynx007 und Raucherdackel!
Simulatorenfan schrieb:
sobald sich ARM durchsetzt, hat man massig Leistung und braucht keinen großen Tower mehr um zum Spielen oder professionell zu arbeiten
Selten so gelacht. Da bei ARM können sie wohl zaubern oder wie soll man sich das vorstellen? Hard und Software sind schon immer mehr als die Summe ihrer Teile.

Abseits vom mobilen Markt gibt's Seitens ARM nichts brauchbares geschweige denn etwas SoC mäßiges was es Performancetechnisch mit aktuellen dezidierten Lösungen aufnehmen kann. Bzw eine Plattform bietet von der sich andeutet dass sie sich durchsetzen kann. Weder bei GPUs noch bei CPUs.

Und was den M1 betrifft: Dass der M1 effizient ist sollte bei 5 nm auch klar sein. Und die Tatsache dass er nur innerhalb des Softwarekäfigs überhaupt benutzt werden darf disqualifiziert ihn für Bereiche abseits dessen. Denn das darf er ja nicht :D
Keine Vergleichsgrundlage zu haben schafft auch lästige Konkurrenz vom hals zumal dann nur Äpfel und Birnen vergleiche möglich sind.

Versteht mich nicht falsch, ist innerhalb seiner Möglichkeiten ein super Chip der die Vorteile eines SoC Designs super ausspielt hier und da. Aber sobald es mehr sein soll geht es einfach nicht, ist halt alles Fest integriert was z.b. den RAM, CPU und gpu betrifft.

Aber die Plattform ist bisher weder skalierfähig noch sonderlich variabel. Außerdem wie bereits angekündigt softwareseitig extrem limitiert da rein Apple abhängig. So wird's nie was mit universeller Verbreitung, man bleibt immer der Sonderling.

Um den Bogen zu den GPUs hier wieder zu bekommen: Abseits der Notebooks wo eine APU ausreicht werden dGPUs weiterhin gebraucht, schön Dass man sie jetzt so langsam zu Gesicht bekommt. Spannend wird auch ob Nvidia es schafft diese GPUs in ausreichender Menge herzustellen, die OEMs werden sicherlich Schlange stehen.
Ergänzung ()

@Bright0001 ich weiß du siehst das ein wenig anders als ich, dennoch finde ich es wichtig dass wir auch über so Dinge wie VRAM diskutieren können.

Wenn man den Herstellern durchgehen lässt dass sie sich nicht weiterentwickeln entwickeln sich auch die spiele nicht weiter. Gute Texturen Kosten eben keine Leistung ;) deshalb ist's eben so ein haben oder nicht haben. Im Zweifelsfall habe ich dann lieber. :D

Nur weil aktuelle spiele das nicht Direkt nutzen können heißt es nicht dass es nicht zukünftig vielleicht welche gibt. Ich nutze gerne Karten lange und spiele auch gerne mit 30 FPS wenn die Karte es nicht schafft.

Sind alles Dinge die ich nicht Direkt beeinflussen kann, ist halt Software.. Aber die Hardware kann ich beeinflussen, also im Zweifelsfall mehr davon zur Verfügung stellen als für den Betrieb absolut nötig. Das ist dann Sicherheit ;)

Ist ja mit jeder betriebsnorm oder Vorschrift das gleiche.. alle schreiben sie bei "benötigt" mehr rein als "nötig". Denn das sind ja zwei verschiedene Sachen. Nur Weil ich mit optimierter Software mit 10 GB hinkomme sage ich zu 16 GB trotzdem nicht nein. Könnte ja sein dass ich Mal "crap" laufen lassen muss welcher ohne genug RAM VRAM etc. Sonst einfach nicht läuft^^


Abseits der gamingblase ist's übriges wichtig endlich günstige 16 GB VRAM im Laptop zu Bekommen. Denn wenn beim Editing oder Rendern der VRAM voll läuft wird die ach so schnelle GPU derart langsam dass es nicht mehr schön ist. Denn sie darf nicht Rechnen Weil die Daten zur vollständigen Auslastung nicht in den VRAM passen. Da sind ein paar min FPS in Games harmlos dagegen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Gabriel_77
PS828 schrieb:
ich weiß du siehst das ein wenig anders als ich, dennoch finde ich es wichtig dass wir auch über so Dinge wie VRAM diskutieren können.
Darf man, verbieten will ichs keinem. :freaky:

PS828 schrieb:
Nur weil aktuelle spiele das nicht Direkt nutzen können heißt es nicht dass es nicht zukünftig vielleicht welche gibt.
Und nur weil es "zukünftig vielleicht mal welche gibt", heißt dass nicht, dass ich heute schon für dieses "vielleicht" bezahlen möchte.

PS828 schrieb:
Nur Weil ich mit optimierter Software mit 10 GB hinkomme sage ich zu 16 GB trotzdem nicht nein.
Nur sind diese 6GB nicht kostenlos und können nich einfach "mitgenommen" werden, sondern müssen vor allem im Fall von GDDR6X teuer bezahlt werden. Bei nvidia wären das 100-150$ mehr im msrp, und auch wenn wohl so einige den Aufpreis für mehr "Zukunftssicherheit" mitgingen, mir wäre das zu viel Geld für zu wenig echten Mehrwert.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: lynx007

Bright0001

Zu hohe Kosten für zu wenig echten Mehrwert ?
Kommt auf die Auflösung an, in der man spielt.
Ein Beispiel RX 480 gab es mit 4 und 8 GB. Preisunterschied waren 60 - 80 Euro. Anfangs Mehrkosten ohne echten Mehrwert. Mittlerweile sind 4GB einfach zu wenig und das für FHD.
Und was die 10GB angeht, über die oft diskutiert werden. Die 3080 zB wird auch für 4k Monitore genutzt.
Denn falls du wegen RAM bald "aufrüsten" musst, weil die Karte doch durch den VRAM limitiert wird, ist deine "Bilanz-Rechnung" für den Ar... Die einzige Alternative wäre dann noch die 3090 gewesen. Für 10% mehr Performance und mehr RAM den doppelten UVP Preis.
Und genau deshalb kommt jetzt eine 3080TI, da AMD mit 16 GB genau da reinkommt, wo NV aktuell "nichts" hat. Also so unnötig kann es dann am Ende nicht sein.
 
Zuletzt bearbeitet:
MSI-GeForce-RTX-30-Mobile-TDPs-pcgh.jpg


Hier mal ein update zwischen dem GF65 und dem GP66 liegen 1200€ mit selben CPU und beides mit RTX3060 wohlgemerkt.
 
Ganz einfach normalerweise steht nicht dahinter welche GPU wo verbaut ist die RTX3060 60Watt hat 6.6Tflops die RTX3060 115Watt 12 TFLOPS und wesentlich schnelleren VRAM auch noch.
 
Zurück
Oben