News GeForce RTX 3000: Deutlich mehr Grafikspeicher kündigt sich an

Igor hat neues Lesefutter

NVIDIA Ampere RTX “3080” und “3090” mit 12-Layer-Platine und Backdrill, BIOS schon als RC2 (Release-Candidate), Pilot-Produktion läuft

Auch hierfür habe ich für Euch exklusive Informationen, denn es läuft bei allen großen Herstellern bereits die sogenannte Pilot-Produktion. Nur mit dem BIOS (auch für letzte Tests) ist man noch nicht ganz fertig, aber zumindest fast. Der aktuelle Stand heute ist RC2, also steht man auch dort kurz vorm Finish.
...
Auch zu den Kühlern hört man so Einiges, allerdings muss ich mich hier auch an auferlegte NDAs halten. Aber es wird kolportiert, dass z.B Asus auf den Strix-Modellen gleich mit drei 100-mm Lüftern aufwarten wird, womit sich die Kartenlänge wohl auf deutlich über 32 cm einpegeln dürfte. Zur Erinnerung: die FE setzt auf zwei 110-mm-Propeller.

Um Benchmark-Leaks vorzubeugen, hat NVIDIA diesmal auch die Evaluation-Treiber komplett abgeschottet. Es laufen wohl noch nicht einmal mehr Furmark, geschweige denn Time Spy, sondern nur NVPunish (ein Stresstest-Programm) für die Thermal-Tests.
...
Ein fieser Kostentreiber, auch für die Boardpartner, ist die sehr aufwändige Platine. Aber ab der GeForce RTX “3080” aufwärts müssen es definitiv 12-Layer (5 Cores) sein, so NVIDIAs Regeln, die auch für die Boardpartner und deren eigene Platinen gelten. Die 12-Layer-Platinen und das notwendige Backdrill-Verfahren
 
  • Gefällt mir
Reaktionen: GERmaximus, Sturmwind80 und Hejo
DarkSoul schrieb:
Und das bringt mich zurück zu den GPUs: Vergleicht mal die Features einer Top-GPU von 2007 mit einer von 2019. Der Preisunterschied erklärt sich durch die Entwicklungskosten genauso wie die Erhöhung der Features, auch wenn es viele nicht wahrhaben wollen: Die Hardware ist auch einer Inflation unterlegen und wurde seit dem auch so schon teuerer. Mehr Features kosten zusätzlich.

Das mag sein, macht die Sache aber nicht weniger besorgniserregend.

Früher sind ja auch schon neue Features und natürlich reichlich mehr Leistung bei jeder Generation dazu gekommen. Im Unterschied zu den letzten paar Generationen sind die Preise der Grafikkarten dabei aber nicht entsprechend hoch gegangen. Zum Glück, denn sonst würden die heutigen Grafikkarten Unsummen kosten.
(Ich habe tatsächlich einen "Benchmark" gefunden, bei dem man eine GeForce256 (erste "moderne GPU") mit aktuellen Karten, einschließlich einer 2080Ti vergleichen kann. Die stehen 5 vs. 21.545. Wäre der Preis seit dem also immer entsprechend der Leistung gestiegen, würde eine 2080Ti heute über 400.000€ kosten. Inflation und neue Features gar nicht mitgerechnet. :evillol: )

Es ist möglich und wahrscheinlich, dass es echte, technische und wirtschaftliche Gründe dafür gibt, dass die Preise der Grafikkarten neuerdings so zulegen bzw. P/L stagniert, aber dadurch wird die Sache meiner Meinung nach sogar noch düsterer, als wenn es nur "Raffgier" von Nvidia und AMD wäre. Das bedeutet, dass wir gegen eine Wand rennen und Leistungszuwächse und immer neue Features, wie wir sie von früher kennen, in Zukunft nicht mehr möglich oder für Normalsterbliche schlicht unbezahlbar sein werden.
 
  • Gefällt mir
Reaktionen: Pastafari, Nick.Bo, R1c3 und 2 andere
Ich verweise an dieser Stelle auch gerne auf diese sehr interessante Aufstellung:
https://wccftech.com/nvidia-geforce-gpu-generational-performance-per-dollar-gains-visualized/
Vor 12 Jahren: 9800GT für ~200$ Performance Faktor 1
Aktuell: RTX2060 für ~350$ Performance Faktor 7
D.h.: Nach 12 Jahren haben wir für das ca. 1,75x so viel Geld knapp 7x so viel Leistung. Imho nicht schlecht :)
@Player(1) : Gebe dir recht, dass ein großer Teil des Nvidia Pricings auf fehlende Competition zurückzuführen ist.
Ansonsten bleibe ich bei meiner Aussage :)
 
  • Gefällt mir
Reaktionen: Laphonso
Herdware schrieb:
Das bedeutet, dass wir gegen eine Wand rennen und Leistungszuwächse und immer neue Features, wie wir sie von früher kennen, in Zukunft nicht mehr möglich oder für Normalsterbliche schlicht unbezahlbar sein werden.

Das sehe ich nicht so pessimistisch, denn wir haben 3 Korrektive:

1.) Der größte Absatz findet im ~250 bis ~500 Euro Korridor (= das Budget ist hier limitierend für die sales und das, was an Preisen toleriert wird) statt, der hier schon genannt wurde..
Damit haben AMD und Nvidia Interesse, die Featuresets und Performancezuwächse auch und gerade dort im Portfolio zu haben = für die "Normalsterblichen" und zumindest "Casuals" oder Hobbygamer

Die Enthusiasten machen die kleinste Gruppe aus, wir reden hier von 1 bis 3 %, die instant diese Preise bezahlen. Wenn hier im Forum 4 bis 5 sagen "3090 wird gekauft!" dann fällt das auf und dann fühlt sich das nur mehr an, aber das ist ein Technikforum! Frag mal in der Schule oder der Uni oder im Bus oder im Einkaufscenter, wer denn eine 1000+ Gaming GPU kaufen wird.


2.) Die Konsolen bestimmen durch ihre schier wahnsinnige Verbreitung und Architektur 2 mal pro Dekade, was "Mainstream" wird (auch an Features, siehe Raytracing und 4K) und die GPUs und PC Systeme stehen im Budget Wettbewerb mit diesen 500 oder 600 Euro für New Gen Konsolen, die zumindest jetzt direkt mit der Top End Grafik konkurrieren können, auch wenns weniger fps sind.
Interessiert Konsoleros normal auch nicht, soll schön aussehen auf dem TV, und das wird es.

3.) AMD und Nvidia, auch wenn es nur 2 Anbieter sind, werden im Preiskampf um die marketshare von 80% der Masse an "Normalogamer" bleiben, und damit wird es im Midrange Bereich immer einen der beiden geben mit einem Angebot, welches das "beste" sein wird. Beide halten sich in Schach.
 
Also wenn es bei einer 3080 wirklich „nur“ 10GB Ram sind dann ist dies in der Tat ein Thema und uninteressant wenn man nicht alle 2 Jahre nachrüsten will.
Ich bin persönlich gesehen einer von denen die bei der 9800GX2 + GTX970 schon auf die „Ram Schnautze“ gefallen sind. 2 Mal Probleme wegen zu wenig Ram bzw. schlechter Anbindung. Die Anwendung sind 1440p mit >144Hz und da braucht es Power. Ich hatte das Glück mit einem Freund der eine 980Ti hatte gegen Aufpreis tauschen zu können und liebäugle jetzt damit nachdem AMD gekontert hat, die jetzige 980Ti mit einer 3090/3080Ti (however) in Rente zu schicken.

Alternativ aufgrund der Preise jetzt vl ne 3080er aber so wird es wohl bei der 980er bleiben.
Mir ist schon klar dass eine Lebensdauer von fast 5 Jahren für eine Grafikkarte utopisch sind, aber darum geht es nicht. Ähnlich wie bei der jetzigen 980 Ti möchte ich zumindest ein paar Jahre später ein paar Spiele bei Mittleren Details flüssig mit 144 Hz schaffen und das sollte sehr wohl drinnen sein.

Ich bin gespannt was die Tests dann sagen und zu welchem Konzept sich nVidia dann Entscheidet.

Preislich werden die Karten von nVidia immer ein Horror bleiben solange AMD keine Adäquaten Konkurrenten anbieten kann! Das sollte eigentlich jedem hier klar sein. nV hat in dieser Kategorie inzwischen fast ein Monopol. Ob die Preise gut oder schlecht sind kann auch niemand sagen solange es keine Konkurrenten gibt die beweisen dass man es für weniger schafft. Im Zweifelsfall muss man daher sagen; dass trotz des technologischen Fortschritts die Karten einfach unverhältnismäßig teuer werden/wurden.
 
Wie sie hier alle über zu wenig Speicher bei NV jammern, aber dennoch jeder 2te Nvidia User die neuen Karten sofort kauft. Sieht man ja in den neuesten JP Researches! :D

Von der 2080 -> 3080 gibt es mehr Speicher UND mehr Leistung. -> alle jammern
Von der 2080ti -> 3090 gibt es VIEL mehr Speicher und mehr Leistung -> alle jammern
Die Preise steigen seit jeher -> alle jammern

Aber alle rennen sie wie Lemminge NV die Bude ein und reißen die Karten aus den Händen und würden auch noch n Fuffi extra Hinlegen, damit die Karte ja kein anderer vor ihnen bekommt.
Immer diese Heuchlerei, echt lustig. NICHT :stock:

Oder anders gesagt, wenn euch die mickrigen 10GB zu wenig sind, dafür gibt es doch die 3090! Oder habe ich was falsch verstanden?
Ach, die ist euch dann plötzlich doch zu teuer oder wie? :heul:
 
Also ich freue mich! 24GB und die Features sind doch der Wahnsinn, dass da auch der Preis der Wahnsinn wird, ist doch klar!

Ich brauche alles an GPU Power was ich bekommen kann!

Ich spiele gerade Kingdom Come Deliverance mit einer GTX 1080 in 4K & habe 5 Frames!

KingdomCome_2020_08_25_18_06_07_600.jpg
 
JohnnyTexas schrieb:
Also ich freue mich! 24GB sind doch der Wahnsinn, dass da auch der Wahnsinn ist, ist doch klar!

Ich brauche alles an GPU Power was ich bekommen kann!

Ich spiele gerade Kingdom Come Deliverance mit einer GTX 1080 in 4K & habe 5 Frames!

Alles was du brauchst wäre eine saubere PC Portierung.
 
  • Gefällt mir
Reaktionen: Benji18, Sophisto und Laphonso
Die wirds aber nur sehr selten geben! Aus Geld & Zeitdruck der Spielestudios!

Also passe ich mich der Realität an!

Und genieße wunderbare Spiele mit mehr als 5 Frames!
 
  • Gefällt mir
Reaktionen: GERmaximus und OR4LIFE
Mustis schrieb:
Was hat die Auflösung damit zu tun? Die größe der Texturen bzw. der Speicherbedarf steigt nicht an nur wiel die die Auflösung änderst. Dies belastet einzig und allein den Chip da er mehr Pixel berechnen muss.

Bei höheren Auflösungen macht es auch Sinn höher aufgelöste Texturen zu verwenden und die brauchen dann mehr RAM.

Bei einem Display mit 720p macht es relativ wenig Sinn 8K-Texturen zu verwenden oder? Denn die Details der Texture könnte man dann eh nicht erkennen, außer man ist gerade sehr sehr nah dran.
Ergänzung ()

d3nso schrieb:
Klar, es spielt ja auch jeder Larry in 4K :freak:
Der Großteil der Spieler ist in FullHD unterwegs. Und viele geilen sich an 240Hz+ auf als an einer hohen Auflösung.
Es ist noch gar nichts über die Preise der neuen Karten bekannt, aber du heulst rum das 10GB für den Preis Ende 2020 zu wenig sind. Wow, finde den Fehler :rolleyes:

Der Großteil der Leute kauf sich auch keine 3080! Wer mit FHD unterwegs ist, kauf sich sicher keine 3080 sondern was richtung 3060 oder 3050.

Die Preise werden ja bald bekannt gegeben aber allein das aufwendige Kühlerdesign und die Chipfläche lassen erahnen wohin der Preis geht :freak:
 
JohnnyTexas schrieb:
Ich spiele gerade Kingdom Come Deliverance mit einer GTX 1080 in 4K & habe 5 Frames!
Spoiler: Nicht das VRAM limitiert da. Die Cryengine ist absurd optimiert,
Meine 2080TI auf den "future Settings" unter 1440p sagt winke winke zu 60 fps in einigen Szenen. (teilweise auch zu 50 fps btw)

Und selbst die TitanX packte im Pc Gamesn techreview oftmals die 40 fps nicht - unter 1440p

Eine 16 GB VRAM Radeon VII kämpft sich auf Witcher 3 (Engine aus 2013 und 2014) in einigen Szenen mit 60 und 70 fps , und zwar unter 4K Ultra mit dem 3900X 4,5 GHz oc.

Das Game ist ein halbes Jahrzehnt alt.

VRAM nützt nichts...wenn die GPU Power fehlt oder die Engine einfach "ungut" optimiert wurde. Da rettet VRAM gar nix.
 
  • Gefällt mir
Reaktionen: GERmaximus und d3nso
Es geht natürlich um das PAKET aus LEISTUNG & VRAM!

50% mehr Leistung und über das Doppelte an VRAM zur 2080TI sind doch nicht zu verachten!

Und endlich mal ein riesen Kühler von Hause aus!
Damit muss ich nicht erst auf die MSI RTX 3090 Gaming X TRIO warten!
 
Zuletzt bearbeitet:
JohnnyTexas schrieb:
50% mehr Leistung zur 2080TI sind doch nicht zu verachten!
50%....
Hmmm.

Ich glaube, der größte rage kommt erst noch, sobald wir feststellen, dass die höchsten Performancezuwächse für Raytracing realisiert werden bei der 3000er Generation, und weniger für die "klassische" Shading/Render/Draw Performance.

Will sagen, ich lehne mich weit aus dem Fenster und spekuliere:
Die 3090 wird 50% (Minimum) - 100% (optimistiches best case scenario) schneller sein beim Raytracing als die 2080Ti.
Aber "nur" 35 % schneller RTX off.

Will sagen, die 3090 wäre dann ein Knüller, wenn Raytracing ON auf Ultra ohne oder mit minimal fps Verlust läuft.
 
  • Gefällt mir
Reaktionen: PS828
Ist schon bekannt welche min. CPU nötig ist um eine RTX 3090 ausreichend zu befeuert ?
 
@Laphonso ich Halte es sogar für möglich dass die RT Performance 3-4 Fach höher liegt und darin mündet dass es keinen Performance-Verlust mehr gibt. (Absoluter Idealfall)

Beim A100 hat die cuda Leistung Pro SM lediglich um 30% zugelegt. könnte eine gute Referenz sein.

Auch muss man sich nun mit der RDNA2 Iteration von RT messen, welche ja etwas anders umgesetzt ist. Dort kann die Leistung variieren und, wenn kein RT benötigt wird, entsprechend die Rasterleistung verbessern.

Bei so einem dynamischen Ansatz weiß man halt wirklich erst mit Benchmarks was hinten raus kommt. Bin wirklich gespannt wie der direkte Vergleich aussieht.
 
  • Gefällt mir
Reaktionen: Laphonso
@ECENAT

Das kommt natürlich auf Spiel an!

Open World Spiele brauchen meist mehr CPU Leistung, als Schlauch lvl Spiele!

@PS828
Ich denke auch das die Raytracing Performance ORDENTLICH zulegen wird!

Was auch extrem wichtig für mich ist! Da ich gerne Control spiele mit alles auch Ultra & Raytracing!
Da hatte ich in 4K mit meiner schon verkauften 2080ti 24Frames!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ECENAT und Laphonso
PS828 schrieb:
@Laphonso ich Halte es sogar für möglich dass die RT Performance 3-4 Fach höher liegt und darin mündet dass es keinen Performance-Verlust mehr gibt. (Absoluter Idealfall)

Ganz genau, und das wäre perfekt, wenn Raytracing ON bei allen Mechanismen wie
  • Global Illumination (Licht/Beleuchtrung natürlich und in Echtzeit und nicht pre rendered, wie heute ohne RT)
  • Ambient Occlusion und Dynamic Shadows
  • Reflections
  • Translucency
  • Skylight
etc.

selbst auf Ultra RT Preset die fps nur minimal reduziert = keine relevanten performance hits.

Das geht eben weit über das hinaus, was manche als "Marketing" abtun.


Ich habe Metro Exodus mit RTX on und off gespielt.
Der Unterschied in der visuellen Immersion ist unfassbar, und man muss das selbst erlebt haben, ist wie Tag und Nacht, buchstäblich.
 
  • Gefällt mir
Reaktionen: PS828 und JohnnyTexas
JohnnyTexas schrieb:
Diese Spiegelungen sind nur Marketing!
Ja, Control hat schon nette und feinere Reflektionen mit RTX on. .
Wenn man auf diese visuellen Gimmicks steht, welche die Graphics natürlicher machen und realistisch, sind diese Details ein "Gamechanger" im persönlichen Spielerlebnis.

Vor allem mit weniger Perfomancehits.

Und hier erwarte ich von einer 3090 definitiv mindestens 50% Zuwachs an mehr RTX Power gegenüber einer 2080Ti.

Das ist doch der selling point für Nvidia?
 
  • Gefällt mir
Reaktionen: JohnnyTexas
Preis egal, Größe egal, Stromverbrauch egal. Aber dieses unsägliche Tripleslot Design schüttet mir das Kraut aus.

Bei mir ist jeder Slot belegt und daran wollte ich jetzt nicht zwingend was ändern.
Mal sehen was mir da noch einfällt.
 
Zurück
Oben