News GeForce RTX 3000: Deutlich mehr Grafikspeicher kündigt sich an

Guten Tag sehr geehrte Damen und Herren.

Der Nachfolger von 2070 Super 16GB und 2080 Super nur 10GB ? 🤨

Wo liegt der Unterschied bei diesen Grafikkarten?


PG132-20RTX 2080 Super20 GB320 Bit

PG132-30RTX 2080 Super10 GB320 Bit

Warum sollte der Hersteller 2 unterschiedliche 3080 Super Modele auf den Markt bringen, die sich vom Speicher erheblich abheben?

Kann mehr Speicher für eine höhere Auflösung gut sein?
Ich dächte da war doch was.

Ich freu mich schon auf die ersten YT Video in 4K auf High Setting´s.
Da bin ich vorallem auf die FPS der Titan gespannt.
Ob es da endlich möglich ist mit über 100FPS und über 100Hz in 4k auf einem 34 Zoll Monitor zu spielen.

hochachtungsvoll

SQ Squats. 🤪
 
@Creeper777 In der Liste werden vom 2070 Nachfolger ebenfalls zwei Versionen (8GB/16GB) genannt.

So kann man entsprechend seines Bedarfs kaufen. Falls man das nicht beurteilen kann und nicht auf Nummer sicher gehen will, wird es bestimmt zeitnah nach Release entsprechende Tests mit Empfehlungen geben.
 
  • Gefällt mir
Reaktionen: Mcr-King
Creeper777 schrieb:
Warum sollte der Hersteller 2 unterschiedliche 3080 Super Modele auf den Markt bringen, die sich vom Speicher erheblich abheben?
Warum denn nicht? Das hat Nvidia schon oft so gemacht, ist jetzt nichts neues.
 
  • Gefällt mir
Reaktionen: Mcr-King
Die Karten werden mit Sicherheit Brutal. Ich hoffe dass Nvidia nicht mit den Preisen übertreibt, und dass AMD gute Konkurrenz Produkte anbieten kann.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Highspeed Opi schrieb:
Raytracing wird irgendwann bestimmt eine super Sache. Jetzt gibt es ein paar aktiv genutzte Kleinigkeiten wo es realistischer aussieht, aber wer weiß wie es in ein paar Jahren aussehen wird.
Du meinst dann wenn die Karten für den erweiterten Raytracing Einsatz eh wieder zu lahm sind?
Das Ganze erinnert mich ein Stück weit an ATIs TruForm, dem Vorläufer der heutigen Tesselation.
Ergänzung ()

HisN schrieb:
Das Interface wird in 64-Bit-Speichercontroller "aufgeteilt" Ab einer bestimmten Anzahl wird das Routing der Speichercontroller zum Speicher auf dem PCB richtig teuer, weil es "übereinander" verläuft. Also das PCB für mehr Controller mehr Lagen bekommen muss.

Ich denke, das ist meistens eine ganz einfache Kosten/Nutzen-Rechnung.
Der Grund dürfte eher noch simpler sein denn man kann getrost davon ausgehen das es sich um einen teildeaktivierten Chip handelt dem zusätzlich ein 32 Bit Speichercontroller abgeschaltet wurde und der Chip an sich ein 384 Bit Speicherinterface besitzt. Also das gleiche Spiel wie bei den 11 GB der GTX 1080 Ti.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Onkel Föhn, Shoryuken94 und HisN
Ich brauche mehr Leistung auf einer 6 Pin Grafikkarte. Die Daten der Leistungsaufnahme mit 3x 8 Pin macht mir dahingehend nicht besonders viel Hoffnung.
 
Chismon schrieb:
Was mir Sorgen bei den GA102 RTX Ampere Karten machen wuerde, waere die (Luft-)Kuehlung, wenn die Rohleistung der Grafikkarte wirklich laengere Zeit auf Anschlag laeuft und wie es da um die Lebensdauer/Haltbarkeit bestellt ist, wenn man so eine Karte 4(+) Jahre laufen/leben lassen will.

Dem Silizium selbst ist das relativ egal. Das läuft meist deutlich unterhalb kritischer Temperaturen. Deutlich über 300 Watt sind ja auch zumindest im Customberich nichts neues mehr und selbst bei Vega hat man es in einen eher miesen Blower Kühler gesteckt und die Karten halten auch problemlos.

Problematischer wird es da schon eher, wenn Hersteller paar Cent an den Spannungswandlern sparen wollen. Die Spannungsversorgung ist bei so einer Karte nämlich stark belastet. Meine 780Ti mit freigeschaltetem Modbios und wirklich extremen OC hat es nach 5 (2 Jahre bei mir, 3 bei einem Freund wirklich viel gelaufen) Jahren einen Spannungswandler völlig weggefetzt. Da sollten die Hersteller nicht sparen. Die 3090/3080Ti dürfte es thermisch wahrscheinlich wesentlich besser gehen, als jeder Serien Vega 64. Und die halten wie gesagt auch ziemlich gut

Wadenbeisser schrieb:
Du meinst dann wenn die Karten für den erweiterten Raytracing Einsatz eh wieder zu lahm sind?
Das Ganze erinnert mich ein Stück weit an ATIs TruForm, dem Vorläufer der heutigen Tesselation.

Bei Turing ja. Wie es bei Ampere mit der zweiten Generation aussieht, mal schauen. Hier soll die Raytracing Leistung ja stark steigen. Das Problem mit Tesselation / TruForm war eher, dass das sich mit DX11 erst auf eine einheitliche Umsetzung gekümmert wurde, die Hardwareseitig auch nur von DXX11 GPUs unterstützt wurden. Und hier hatte ATI / AMD Jahre Lang ziemlich das Nachsehen bei der Hardwarebeschleuigten Tesselation, wohingegen Nvidia beispielsweise schon die erste Generation sehr gut gelungen war.

Dieses Problem gibts bei RT nicht, dank Microsofts DXR Implementierung ist hier bereits eine Grundlage geschaffen. Da liegt es nun an der GPU herstellern, wie sie das ganze in Hardware beschleunigen. Da heißt es also wieder, wer setzt es am besten um. Dank der Konsolen kommt RT in die breitere Masse und dürfte auch in mehr Benchmarks dann einzug halten, wenn AMD und Nvidia das ganze unterstützen und dann sieht man, wessen Ansatz erfolgreicher ist.
 
@Shoryuken94

Die Geschichte um die TrueForm bzw. der Tesselation war leider deutlich komplexer.
Vor allem bei TrueForm ging es aufgrund des Rechenaufwands lediglich um die Aufwertung von Details, also am Ende das was nvidia mit dem Raytracing derzeit macht.
So richtig in Fahrt kam die Geschichte erst in Form der Tesselation mit DX11, was erst von nvidia klein geredet wurde und mit Veröffentlichung des Fermi auf einmal das Feature schlechthin sein sollte. Den Mythos der überragenden Tesselationsleistung erkaufte sich mit überzogenen Tesselationsfaktoren, bei denen die eigene Umsetzung definitiv Vorteile, und nicht zuletzt auch sinnlose Tesselation von Objekten bei denen das keinen Unterschied machte. Es sollte also offenbar einfach nur sinnlos Rechenleistung verbrannt werden damit sich die eigenen Produkte entsprechend absetzen konnten.

Aktuell bewegen wir uns ca. auf dem Niveau wie einst TrueForm und daran wird meine Meinung nach auch Ampere nicht viel ändern können denn um ählich wie bei der Einführung der Tesselation mit DX11 vorgehen zu können bräuchte man meiner Meinung nach locker die 6-8 fache Leistung. Da werden wohl noch mindestens 2 Generationen ins Land gehen bis das vernünftig auf die ganze Szene eingesetzt werden kann.
 
  • Gefällt mir
Reaktionen: Onkel Föhn und Sp4wNickle
JukeboxRomeo schrieb:
Ich brauche mehr Leistung auf einer 6 Pin Grafikkarte. Die Daten der Leistungsaufnahme mit 3x 8 Pin macht mir dahingehend nicht besonders viel Hoffnung.
dann warte auf AMD, die sollen angeblich bei RDNA 2 etwa 50 Prozent effizienter sein als bisher.
 
  • Gefällt mir
Reaktionen: Onkel Föhn und McTheRipper
iceshield schrieb:
Also die Beste P/L Empfehlung ist immernoch eine gebrauchte 1080Ti im Bereich 400 - 450 EUR. Trotz schlechter low level API.
Also in den letzten getesteten Spielen schneidet eine RTX 2070 Super stets besser ab als eine GTX 1080 Ti... bei Neupreisen mit voller Garantie für 450 - 500 €. Gebraucht mit Teilgarantie dann wahrscheinlich auch für deine 400 - 450 EUR.

Und bei der besseren Performance ist DLSS noch nichtmal einberechnet.
 
  • Gefällt mir
Reaktionen: Vitec
Hi,

habe ich das richtig verstanden dass mit der 3000 Serie ein 8 PIN Anschluss benötigt wird?
Da ich derzeit auf der Suche nach einen NT bin, sollte ich jetzt doch noch warten auf den Herbst oder?
 
....also über die Speicherbestückung von Turing kann man ja streiten.
Allerdings kann ma objektiv sagen, dass sich zum ersten mal die Bestückung von der einen auf die andere Generation nicht erhöht hat. Sowie ich AMD für ihre Treiberprobleme kritisiere, so kritisiere ich Nvidia für ihre 2060 mit 6GB.
Das ist einfach nur gängelei des Kunden, ähnlich der 1060 3GB. Für die Rohleistung fehlt denen einfach Speicher.
Auf der einen Seite muss jeder selbst sehen, ob er bei einer AMD RX 570 8GB braucht oder ob (wenn Spiele erscheinen die diese auch voll brauchen) nicht schon die Rohleistung fehlt.
Allerdings verstehe ich überhaupt nicht, wie Leute mit den Argumenten man "brauche doch nicht mehr Ram"; "lief bis jetzt immer alles" eine Strategie billigen, die nur dazu gedacht ist, den Kunden zu melken. Das ist keine Meinung sonder einfach ein Fakt. Bei den Preisen die Nvidia für Turing aufgerufen hat, wären 8GB bei der 2060 und mehr als 8GB bei der 2080 angebracht gewesen.
Und Aussagen wie "wer mehr will muss mehr zahlen" finde ich schon sehr gewagt.....damit gibt man zu dass man sich Kritiklos dem Hersteller beugt. Kann ja nicht sein dass ich gezwungen bin mir eine 2080ti zu kaufen, wenn mir eigentlich die Leistung der 2080 reicht, ich aber NICHT wegen 2-3 GB Vram die Karte deutlich weniger lang nutzen kann. Das hat dann nix mit einer Forderung zu tun, sondern ist einfach eine Form von Diktatur seitens Nvidia.

Logische Konsequenz: Turing wird nicht so langlebig sein, zumindest wenn man nicht die Texturqialität runterschrauben will.

Wenn es so kommt wie hier angedeutet, ist die Entwicklung einfach nur logisch.
DIe neuen Konsolen machen da m.M.n den größten Anteil aus. Die sind ja wieder für mindestens 5 Jahre konzipiert und ab 2021/ Cyberpunk 2077 wird eben der Vram Verbauch auch mal angehoben werden.
Die Gaming-Branche wird also wieder einen Schub erfahren und dann werden die Games die nächstes Jahr erscheinen auch -zumindest optional- auf mehr vram zugreifen.
Ich bin aber auch mal gespannt......16GB bei ner 3070 wäre zwar nett, allerdings stell ich mir auch die Frage was dann die 10/20 bei der 2080 sollen.
Riecht mir sehr nach einer rein wirtschaftlichen Entscheidung, aber gut, dem Kunden wird ja die Wahl gelassen.
Allerdings wären 10/11 GB bei der 3070 und 16 bei der 3080 wohl im Verhältnis zur Leistung (aus Gamersicht betrachtet) wohl sinnvoller.
"Nur" 8 bei der 3070 sind eigentlich zu wenig und 20 bei der 3080.....da darf man dann gerne bezweifeln dass dies wirklich gebraucht wird.
 
  • Gefällt mir
Reaktionen: Pastafari und catch 22
wieviel Grafikspeicher muss den eine RTX 30X0 min haben, damit man auch in 4K keine Probleme bekommt?
 
BmwM3Michi schrieb:
wieviel Grafikspeicher muss den eine RTX 30X0 min haben, damit man auch in 4K keine Probleme bekommt?
Schwer zu sagen. Besonders die Zukunft Betreffend. Ich würde sagen auf mittlere Sicht 12 GB.

Im Videoediting sagt man für UHD Inhalte mindestens 8-16 GB VRAM beim Editieren und color Grading und für 8k entsprechend 32 GB VRAM
 
  • Gefällt mir
Reaktionen: Viper2000
Geil, eine PS5 wird um 600-700€ ordentlich was bieten und für dieses Geld bekommst am PC Sektor nichtmal eine Midrange-Grafikkarte 😂😂😂

Dann steht ein equivalenter Gaming-PC im Bereich zwischen 1500 und 2500€ gegen die lächerlich günstige Playstation - so kann man den Gaming-PC auch abschaffen.

Bin ich froh dieses Wettrüsten hinter mir gelassen zu haben.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
KlausDieterK schrieb:
Geil, eine PS5 wird um 600-700€ ordentlich was bieten und für dieses Geld bekommst am PC Sektor nichtmal eine Midrange-Grafikkarte 😂😂😂

Dann steht ein equivalenter Gaming-PC im Bereich zwischen 1500 und 2500€ gegen die lächerlich günstige Playstation - so kann man den Gaming-PC auch abschaffen.

Bin ich froh dieses Wettrüsten hinter mir gelassen zu haben.

Also die PS5 wird vermutlich sogar "nur" 500€ kosten.
Und Midrange Grafikkarte wäre für unter 700 ne 2080S. Allerdings ist das kein Midrange.
Aber der zweite Abschnitt ist die alt bekannt (falsche) Schlussfolgerung....der Gaming PC hat damit nix zu tun.
Mag sein dass es einige Kinder/Jugendliche gibt, bei denen dann mit Freunden/Eltern ein Rat einberufen wird wo man sich überlegt was jetzt Sinn macht, ob man einen PC oder eine Konsole kauft.
Genauso gibt es sicherlich auch Erwachsene die (weil sie zb. nur noch selten zocken) mit einer Konsole die praktischere Lösung finden. Aber diese Zielgruppe war auch schon vorher KONSOLERO.
PC und Konsole konkurrieren nur in einigen wenigen Teilen des Gamings.
Und ja, die Grafikkarten wurde alle etwas teurer, allerdings NICHT der Rest des Pcs.
Das heisst, es ist zwar ärgerlich dass ich jetzt für einen Gaming PC statt ursprünglich 1000€ halt 1200 bezahle oder eben statt 1,5K dann halt 1,9 K.
Aber es ist jetzt nicht so dass der ganze PC auf einmal doppelt so teuer wird.
Ich glaube aber wenn AMD liefert, pendeln sich die Preise auch wieder etwas nach unten ein.
Ergänzung ()
 
Also ich benutze meinen pc nicht nur zum zocken...freu mich über Mod´s ...dafür verstaubt meine ps4 Pro im Schrank.:D
 
  • Gefällt mir
Reaktionen: Shoryuken94
Shoryuken94 schrieb:
Die 3090/3080Ti dürfte es thermisch wahrscheinlich wesentlich besser gehen, als jeder Serien Vega 64.

Naja, bei der RTX 2080Ti (Founders Edition) hat man sich anfangs ja auch nicht mit Ruhm bekleckert hinsichtlich der Ausfallrate, bleibt zu hoffen, dass sich das nicht wiederholt.

Bei Pascal gab es die EVGA Geschichte mit den fehlenden Wärmeleitpads, und zum Glück ist in beiden Fällen nachgebessert worden, auch ein Grund neben der Preisentwicklung/-stabilisierung nicht vorzubestellen oder direkt zum Marktstart zu kaufen (zumindest für mich), zumal per NDA ja wieder neutrale Tests erst einige Wochen später folgen sollen, zumindest kursierenden Gerüchten nach.

Natürlich hat sich AMD/RTG bisher bei den Referenzmodellen auch nicht wirklich mit Ruhm bekleckert, so dass mir da auch eher ein Custom-Modell vorschweben würde, aber vielleicht kommt ja 'mal eine positive Überraschung, wer weiß?

Wenn eine GPU kurz nach Ablauf der Garantiezeit - bei dem was aktuell Grafikkarten kosten - schlapp macht, weil ein oder mehrere Designs es nicht mehr packen (egal ob es bspw. an der Kühlung von SpaWas und Speichermodulen oder zuviel OC insgesamt in der Zeit liegt) wäre das für mittel- bis langfristig orientierte Nutzer schon bitter.

Bei Großchips schätze ich die Wahrscheinlichkeit um einiges höher ein, dass man sich da verkalkuliert, insbesondere bei neuen Layouts für die Platinen, Umstellung der Spannungsversorgung, usw. und wenn wie bei Ampere es eher Richtung Fermi/Thermi geht (weil man das Maximum bei der Samsung-Fertigung heraus holen muss, sich vermutlich bei nVidia bzgl. TSMC Kapazitäten verpokert haben dürfte) ist das auch nicht unbedingt vertrauenseinflößend, aber gut, ich will den Teufel auch nicht an die Wand malen ;).

Im Endeffekt kann das natürlich leider keiner vorhersehen/voraussagen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Onkel Föhn und Mcr-King
Chismon schrieb:
Im Endeffekt kann das natürlich leider keiner vorhersehen/voraussagen.
Natürlich kann das keiner...man sollte immer Test abwarten ......mir ist es auch immer wichtig wie laut die Lüfter sind usw.
Wobei ich noch nie eine FE gekauft habe immer Custom , aber wir werden es bald sehen was die Fakten sind und das ganz ohne Spekulatius ;)

PS: Grüße an IgorsLap ;)
 
  • Gefällt mir
Reaktionen: Onkel Föhn, Chismon, Mcr-King und eine weitere Person
Chismon schrieb:
Bei Pascal gab es die EVGA Geschichte mit den fehlenden Wärmeleitpads, und zum Glück ist in beiden Fällen nachgebessert worden, auch ein Grund neben der Preisentwicklung/-stabilisierung nicht vorzubestellen oder direkt zum Marktstart zu kaufen (zumindest für mich), zumal per NDA ja wieder neutrale Tests erst einige Wochen später folgen sollen, zumindest kursierenden Gerüchten nach.

Na ja das Boardpartner schlampen ist nichts neues. Da gab es ja auch bei Navi und Vega wieder einige tolle Modelle mit verglühendem Speicher, mieser Kühlung der Spannungswandler etc. Davor ist man eh nie sicher. Auch nicht zu einem späteren Kauf.

Das Tests erst Wochen nach Release kommen glaube ich kaum. War bisher nie so. Zumal dann fix erste Tests aufkommen werden, wo Leute sich die Karten einfach kaufen und reviewen. Machen ja viele Seiten / Youtubekanäle etc. die keine Testmuster bekommen.

Chismon schrieb:
Natürlich hat sich AMD/RTG bisher bei den Referenzmodellen auch nicht wirklich mit Ruhm bekleckert, so dass mir da auch eher ein Custom-Modell vorschweben würde, aber vielleicht kommt ja 'mal eine positive Überraschung, wer weiß?


Man weiß nie ob es Überraschungen gibt. Aber da AMD Außnahmslos bisher alle Luftgekühlten High End Modelle vermasselt hat, würde ich da zumindest nicht zu viel Hoffnung reinstecken. Bleibt zu hoffen, dass sich die Gerüchte um die Big Navi Custommodelle nicht bestätigen. Denn diese soll es zu Anfang zumindest nicht geben. Mal schauen. Vielleicht kommt auch wieder eine Wassergekühlte Karte (auch wenn ich das nicht hoffe). Möglich ist alles.

Chismon schrieb:
Wenn eine GPU kurz nach Ablauf der Garantiezeit - bei dem was aktuell Grafikkarten kosten - schlapp macht, weil ein oder mehrere Designs es nicht mehr packen (egal ob es bspw. an der Kühlung von SpaWas und Speichermodulen oder zuviel OC insgesamt in der Zeit liegt) wäre das für mittel- bis langfristig orientierte Nutzer schon bitter.

Wenn einem das Gedanken macht, gibt es ja genug Boardpartner mit entsprechend langen Garantiezeiträumen und Teils Garantieverlängerungn von 5-10 Jahren. Dazu muss es natürlich erst mal Karten von den Boardpartnern geben :)

Chismon schrieb:
Bei Großchips schätze ich die Wahrscheinlichkeit um einiges höher ein, dass man sich da verkalkuliert, insbesondere bei neuen Layouts für die Platinen, Umstellung der Spannungsversorgung, CV usw.

Der Chip ist da eigentlich relativ egal, kommt drauf an, wie die Hersteller das umsetzen. Bei günstigen Chips werden dann gerne auch die Platinen entsprechend günstig ausgelegt. Die Referenzboards von Nvidia und AMD waren in den letzten Jahren recht hochwertig. Bei den Custommodellen kommts dann halt drauf an, was die hersteller investieren wollen und was nicht.

Chismon schrieb:
und wenn wie bei Ampere es eher Richtung Fermi/Thermi

Heute verbrauchen alle High End Chips deutlich mehr als Fermi ;) würde mir da schon eher Sorgen machen, dass es Richtung Vega geht.

Chismon schrieb:
(weil man das Maximum bei der Samsung-Fertigung heraus holen muss, sich vermutlich bei nVidia bzgl. TSMC Kapazitäten verpokert haben dürfte) ist das auch nicht unbedingt vertrauenseinflößend

Was soll das mit der Fertigung zu tun haben. Pascal und Turing sind in 16nm auch gleich effizient, teils effizienter als Navi in 7nm. Ist eher nicht vertrauenserweckend, wenn man trotz größtem Architektursprung seit jahren und zwei Full Nodes kleinerer Fertigung bei der Effizienz nicht an der Konkurrenz vorbeigekommen ist.

Keine Ahnung was alle immer bei der Fertigung haben, aber Samsung 8nm erlaubt beispielsweise höhere Packdichten, als Sie AMD aktuell mit RDNA in 7nm realisiert und auch deutlich höhere Packdichten, als sie z.B. bei der Xbox Series X mit RDNA 2 zum Einsatz kommen. Also würde ich da mal auf die Fertigung nicht viel geben. Am Ende ist die Architektur deutlich entscheidender.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: JohnnyTexas und TorgardGraufell
Zurück
Oben