News GeForce RTX 3080: Benchmark nennt Taktraten und 10 GB Grafikspeicher

Jan

Chefredakteur
Teammitglied
Registriert
Apr. 2001
Beiträge
15.171
Twitter-Nutzer _rogame hat im Userbenchmark den Eintrag einer bisher unbekannten GPU von Nvidia ausfindig gemacht, hinter dem eine „GeForce RTX 3080“ stecken könnte. 10 GB Speicher bei einem effektiven Takt von 9.500 MHz (19 Gbps) waren für diese Grafikkarten schon länger im Gespräch.

Zur News: GeForce RTX 3080: Benchmark nennt Taktraten und 10 GB Grafikspeicher
 
  • Gefällt mir
Reaktionen: Transistor 22, Chismon, Hexxxer76 und 7 andere
Auch wenn hier der "wenige" VRAM dieser Version durchweg "gebasht" worden ist - braucht man in den nächsten zwei bis drei Jahren mehr? Ich wechsle meine Grafikkarte in der Regel alle 3 Jahre - mit der RTX2070 Super und ihren 8GB VRAM bin ich bei 3440x1440 und meist hohen bis sehr hohen Details auch bei anspruchsvollen Titeln bisher nie ins VRAM-Limit gerutscht.
 
  • Gefällt mir
Reaktionen: Fyrex, Saint81, chivas91 und 30 andere
Nicht mehr lange und wie werden endlich erfahren was sache ist. Aber diese Spannung, echt aufregend. Ob und wie AMD kontern wird?
 
  • Gefällt mir
Reaktionen: Saint81, VYPA, Zockmock und 11 andere
2100 Mhz wären erfreulich (erstaunlich) viel.

Man hört ja viel, was die Dinger können, wenn man ihnen ordentlich die Sporen gibt, abwarten was wirklich am Markt ankommt.

Alles unter 2Ghz ist eine Enttäuschung, alles ab 2.1 Ghz wäre gut. Meine Worte seit einigen Monaten. Um mal zu zeigen, wie klein das "Fenster" (round about 10%) beim Takt aktuell ist.

Fps zählen und hier scheinen momentan alle zu schwächeln, wenn man synthetische Benchmarks im Vergleich zu realen Spielen aktuell betrachtet. (laut Gerüchten)

mfg
 
kaxi-85 schrieb:
mit der RTX2070 Super und ihren 8GB VRAM bin ich bei 3440x1440 und meist hohen bis sehr hohen Details auch bei anspruchsvollen Titeln bisher nie ins VRAM-Limit gerutscht.
Also bei Horizon Zero Down auf 4k soll das ja leider nicht reichen. Mal sehen ob der VRAM Hunger steigt, bei den meisten titel gebe ich dir aber recht auch in 4k reichten bis jetzt 6-8 GB mein 11gb der 1080ti waren noch nie voll
 
  • Gefällt mir
Reaktionen: Chismon, Celinna und Pulsar77
kaxi-85 schrieb:
Auch wenn hier der "wenige" VRAM dieser Version durchweg "gebasht" worden ist - braucht man in den nächsten zwei bis drei Jahren mehr?
Beim Zocken bin ich mit meinen 8 GB in 4k noch nie ans Limit gekommen. Lightroom hätte gerne das Doppelte.
 
  • Gefällt mir
Reaktionen: yaegi, Harpener, Project-X und 4 andere
Das wird genau meine Karte. 10GB reichen mir aus für die nächsten 2 Jahre und ich hoffe, dass die Karte in dieser Form sich preislich nicht überhalb der alten 2080 bewegen wird. Die größere "Ti" macht bei dieser TDP eh keinen Sinn, da ich sowieso massiv UV betreiben werde, damit das alles mit ~200-250 Watt laufen wird (ähnlich wie eine Vega64 sinnfrei war ggü der Vega56). Ich war auch mit den 8GB der 2080 voll zufrieden, weil man in den wenigen Games mit mehr Anforderung einfach die Texturdetails runterstellen kann und das Problem ist erledigt. Bei zu wenig Power (wie der GTX 1650) geht das nicht, da fehlt es hinten und vorn überall und selbst die 4GB sind weit später ein Problem, als die Rohleistung. Die Texturdetails kann ich fast überall auf "Hoch" stellen, während fast alle anderen Details durchweg auf Low-Medium stehen müssen für flüssiges Gaming in WQHD.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: NMA, Transistor 22, DynamaxX und 2 andere
Ja hoffentlich kann AMD kontern, das wünsche ich mir für uns alle, da so die Preise sehr gesalzen werden.
Mehr wie 500€ würde ich niemals für eine GPU zahlen, die sollen mal runter von ihrem mining Preise trip kommen.
 
  • Gefällt mir
Reaktionen: CoNk3r, Saint81, ziFFi und 33 andere
Ich warte immer noch auf einen würdigen Nachfolge für meine 1080Ti. Die kolportierte 3080 ist vom VRAM für meinen Geschmack schwach ausgestattet.
Egal, am Ende wird Preis&Leistung für mich der entscheidende Faktor.

Mr Peanutbutter schrieb:
Nicht mehr lange und wie werden endlich erfahren was sache ist. Aber diese Spannung, echt aufregend. Ob und wie AMD kontern wird?
AMD hält echt still. In der Vergangenheit waren die leaky ohne Ende. Ob das ein gutes oder schlechtes Zeichen ist?
 
  • Gefällt mir
Reaktionen: Flaimbot, Saint81, lalanunu und 11 andere
@kaxi-85
Das hängt wahrscheinlich davon ab wie die neuen Konsolen mit VRAM umgehen. Die Xbox hat wohl 10GB VRAM mit voller Geschwindigkeit und 3,5 etwas langsamer. Wenn das von genutzt wird könnte man schnell ins Limit laufen und das tut dann sehr schnell ordentlich weh.

Eine 16GB Version wäre wohl auf längere Sicht ausreichend. Aber Nvidia wird sich hier wohl eine RAM Verdopplung vergolden lassen auch wenn 20 oder gar 24 eher selten ausgeschöpft werden.
 
  • Gefällt mir
Reaktionen: Aquilid, Beitrag und kaxi-85
@kaxi-85

Schraube mal die Texturen auf max. rauf, spätestens dann quoll bei mir der Grafikspeicher entsprechender Performancefresser bei über, erst recht in hohen Auflösungen.
 
  • Gefällt mir
Reaktionen: Aquilid, derSafran, sethdiabolos und eine weitere Person
kaxi-85 schrieb:
Auch wenn hier der "wenige" VRAM dieser Version durchweg "gebasht" worden ist - braucht man in den nächsten zwei bis drei Jahren mehr? Ich wechsle meine Grafikkarte in der Regel alle 3 Jahre - mit der RTX2070 Super und ihren 8GB VRAM bin ich bei 3440x1440 und meist hohen bis sehr hohen Details auch bei anspruchsvollen Titeln bisher nie ins VRAM-Limit gerutscht.
Ich sehe das ähnlich: Dieser Aufschrei, dass "10 GB noch viel zu wenig ist" mag ja für eine Nische der Fall sein. Die Masse der user wird meiner Meinung nach und auch aufgrund der Erfahrung der letzten Jahre auch die nächsten Jahre mit 8-10 GB VRAM mehr als genug auskommen.

Es wird nämlich gern vergessen, dass neue technische Möglichkeiten meistens Jahre benötigen, bis sie sich in den Köpfen der Programmierer (und damit in Spielen) und vor allem in den game engines festgesetzt haben und vernünftig verwendet werden (können).
 
  • Gefällt mir
Reaktionen: Fyrex, RogueSix, Lübke82 und 3 andere
kaxi-85 schrieb:
Auch wenn hier der "wenige" VRAM dieser Version durchweg "gebasht" worden ist - braucht man in den nächsten zwei bis drei Jahren mehr? Ich wechsle meine Grafikkarte in der Regel alle 3 Jahre - mit der RTX2070 Super und ihren 8GB VRAM bin ich bei 3440x1440 und meist hohen bis sehr hohen Details auch bei anspruchsvollen Titeln bisher nie ins VRAM-Limit gerutscht.

Ach, spiel' einfach mal RDR 2 oder ähnlich aufwändige Titel, da sind 10 GB VRAM nicht wirklich viel.
Es ist also eine Einzelfallentscheidung, aber viele werden ein böses Erwachen erleben, wenn sie mit 4K und den läppischen 10 GB VRAM in höchsten Einstellungen spielen möchten.
16 GB wäre das untere Limit für neue 4K Karten....im Übrigen die ersten 4K Karten überhaupt, weil die 2xxx Serie konnte das auch noch nicht wirklich zufriedenstellend meistern.

Insgesamt: NVidia Kundenverarsche mal wieder.
 
  • Gefällt mir
Reaktionen: Aquilid, derSafran, Fliz und 14 andere
Puh. Also bei so einer 3080 versteh ich die Speicher Diskussion nicht. Hau doch einfach drauf? Die 50 Eur machen den Bock auch nicht mehr fett. 16-20 GB und fertig. Who cares.
 
  • Gefällt mir
Reaktionen: Transistor 22, CMDCake, gesperrter_User und 4 andere
Floppes schrieb:
AMD hält echt still. In der Vergangenheit waren die leaky ohne Ende. Ob das ein gutes oder schlechtes Zeichen ist?
Ich hoffe am ende ein gutes. NV ruft Preise aus...wenn AMD kontern kann, hört diese Hoffentlich mal auf.
 
  • Gefällt mir
Reaktionen: BlackBandit85 und Makso
Mr Peanutbutter schrieb:
Nicht mehr lange und wie werden endlich erfahren was sache ist. Aber diese Spannung, echt aufregend. Ob und wie AMD kontern wird?

Ich werde dieses Jahr wahrscheinlich upgraden - spätestens aber nächstes Jahr.

Ich werde mir definitiv auch angucken, was die nächste AMD-Generation im Vergleich zu Ampere leisten kann und warte auch die ausführlichen Tests ab - wenn 10GB VRAM sich dann als ausreichend herausstellen sollten wäre die 3080 wohl meine Karte (je nach Preis im Vergleich zu Preis/Leistung bei AMD), dann würde ich mir keine (deutlich) teurere 3080(ti) mit 20GB oder eine langsamere 3070(ti) mit 16GB geben nur um beim VRAM für die Zukunft gewappnet zu sein, denn spätestens 3 Jahre später gibt es eh die nächste Grafikkarte.

Wenn das VRAM-Upgrade sich im Rahmen von 50 Euro bewegt - okay, geschenkt. Aber das wird NVIDIA sich sicherlich vergolden lassen.
 
  • Gefällt mir
Reaktionen: Recharging, VYPA, Salzferkel und 2 andere
alkaAdeluxx schrieb:
Ja hoffentlich kann AMD kontern, das wünsche ich mir für uns alle, da so die Preise sehr gesalzen werden.
Mehr wie 500€ würde ich niemals für eine GPU zahlen, die sollen mal runter von ihrem mining Preise trip kommen.

davon kannst du dich mal verabschieden, wenn AMD kontern kann dann werden die marktübliche Preise aufrufen wie es auch Nvidia tut.

Aber einen massiven preissturz wirst du nicht erwarten können.
 
  • Gefällt mir
Reaktionen: Benji21, domian, ZweiBaumViereck und 8 andere
kaxi-85 schrieb:
Auch wenn hier der "wenige" VRAM dieser Version durchweg "gebasht" worden ist - braucht man in den nächsten zwei bis drei Jahren mehr? Ich wechsle meine Grafikkarte in der Regel alle 3 Jahre - mit der RTX2070 Super und ihren 8GB VRAM bin ich bei 3440x1440 und meist hohen bis sehr hohen Details auch bei anspruchsvollen Titeln bisher nie ins VRAM-Limit gerutscht.

Ja wer so oft seine Karte wechselt und nur 0815 unter 4 Zockt wäre auch mit 8GB wohl zufrieden. Wer 700€ aufwärts ausgibt, 4K einsetzen will/muss, wer Sims zockt und wer solche teueren Dinger länger behalten will für den ist 10GB jetzt nicht der Renner. Meine 8GB reichen aktuell je nachdem was ich zocke eben aus, manchmal ises eben voll. VR, 3 Monitore, 4K .. durch die Auflösungen ist schon einiges an Daten vorhanden und Simulationen brauchen oft mehr als Konsolengames.
 
Wenn man will bekommt man alles voll, sogar in Full HD, HisN kann dir bestimmt einige Screenshots zeigen ;)
Die 2-3 Wochen werden hoffentlich schnell vergehen, dann haben wir alles offiziell.
 
  • Gefällt mir
Reaktionen: Recharging, Cassiopea, CMDCake und 6 andere
@hurga_gonzales Dazu muss es erst mal viele geben die 4K verwenden. Die Ti Version bzw die 3090, oder was immer da kommt wird schon mehr VRam haben. Wem WQHD nicht reicht der muss eben weit mehr zahlen. Wie immer am oberen Ende.
 
  • Gefällt mir
Reaktionen: Fernando Vidal und Odessit
Zurück
Oben