News GeForce RTX 3080 und 3070: Nvidia kontert Navi 21 vorerst nicht mit mehr Speicher

MasterAK schrieb:
Meine Vorgehensweise: 28.10. abwarten. 😉
Jepp, wie sich meine Variante werden. Und das schöne ist, ich hab auch noch die Möglichkeit diese Generation zu ĂŒberspringen und mit 0€ investiert trotzdem mehr VRAM zu haben als 3080 KĂ€ufer ;-)
 
  • GefĂ€llt mir
Reaktionen: Mcr-King
Nvidia hat die 16GB bzw 20GB nicht grundlos nachschieben wollen. Aufgrund des unglaublich schlechten Release der 3000er Karten, der schlechten Produktion und weil Nvidia mittlerweile ziemlich genau die kommenden AMD GPUs einstufen kann, ist da die Strategie geĂ€ndert worden.....nicht noch weiter Geld reinpumpen wo am Ende nicht die entsprechende FĂŒhrung, der entsprechende Gewinn bei rauskommt.

Noch produzieren und verkaufen was möglich ist, still halten und den Refreh vorbereiten bei guten StĂŒckzahlen, alles andere bringt unnötig höhere Verluste und ist mit der Marktsituation nicht zu realisieren.
Ich bin mir ziemlich sicher, daß Nvidia es nicht stehen lassen will, daß AMD auf gleichem Niveau anbietet und dann noch mit mehr VRAM.......es aber so wie es zur Zeit lĂ€uft nicht Ă€nderbar ist, auch wenn die 3090 weiterhin top sein wird, aber allein fĂŒr zu wenig Umsatz sorgt.

Wie auch immer das nun alles zusammen gelaufen ist und wie gut eine 3070 16GB oder 3080 20GB die Ampere Generation in ein sehr positives Bild gerĂŒckt hĂ€tte, aufgrund der Gesamtsituation wie es halt nun mal ist, muss man die Strategie Ă€ndern und "das beste" draus machen......das wird diesmal aber nicht bei Nvidia sein, zumindest vorerst.

Ich halte Nvidia fĂŒr strategisch wesentlich klĂŒger wie Intel, die haben AMD unterschĂ€tzt und haben erst einmal das nachsehen.
Nvidia wird sich intern eingestehen mit Ampere erst einmal an Strecke verloren zu haben und aber gleichzeitig die Ressourcen auf das stÀrkere und möglichst schnelle "Comeback" richten, wie weiter in das verlorene Produkt zu stecken.
 
  • GefĂ€llt mir
Reaktionen: Mcr-King, mc_ace und Strubbel99
  • GefĂ€llt mir
Reaktionen: Mitesser
Ich sehe das nach wie vor anders: Die Nvidia Karten werden die AMD Karten in den AAA Titeln dank DLSS bei RT nass machen und die Berichte in den "Fach"magazinen werden voll davon sein. Die Leute springen darauf an und kaufen/bleiben bei nvidia.
Und dazu brauche ich auch nicht den 28.10. Weil selbst wenn AMD ne DLSS Alternative prÀsentiert, muss diese sich a) erstmal battle proofen und b) von den Studios adaptiert werden
 
foo_1337 schrieb:
NĂ€chste These: Die Leute, die sich jetzt die 16GB AMD Karten kaufen jammern, weil sie die RTRT Titel nur mit schlechten Frameraten spielen können, da sie kein DLSS haben. Das ist jetzt schon ein Thema und wird zukĂŒnftig viel mehr werden. Die 10GB 3080 und selbst die 8GB 3070 User werden dieses Problem nicht haben.
Außerhalb von uns Enthusiasten denen 2000 Euro fĂŒr eine Grafikkarte mal eben nicht jucken ist es eben kaum ein Thema, da drehen wir uns doch im Kreis (ebenso wenig ob die Karte 10, 16 oder 24GB hat). Die zocken Fortnite (ohne RTX on), Valorant, Apex Legends, Dota, LoL oder Warzone mit mgl. hohen FPS und die interessieren sich nicht die Bohne dafĂŒr. Die Konsolen sind der Treiber fĂŒr Raytracing in der Zukunft (außerhalb unserer Forumsblase), denn damit kommt Raytracing in nahezu jedes Wohnzimmer.
Ich denke wenn mal Karten um 200$ vernĂŒnftiges Raytracing bieten (sei es mit DLSS oder der AMD Version dann) dann sind wir da wo wir hin wollen. Bei Triple A Spielen (je nach Gusto) bin ich bei Dir - dort wo max. FPS oder Competition keine Rolle spielen halt - macht es etwas her (Metro Exodus sah schon fein aus mit RTX on) und die Zukunft ist es auch.
 
  • GefĂ€llt mir
Reaktionen: EyBananaJoe und Hofpils
Vitali.Metzger schrieb:
Ach dann weißt du bereits wie die VRAM Belegung bei den next gen games wird? Vielleicht geht die Rechnung mit nvidias RTX IO ja auf, aber mich darauf verlassen wĂŒrde ich jetzt nicht.

Zweifellos wird die GPU prevalence nach VRAM in der Grundgesamtheit Maßstab fĂŒr die Entwickler, um technisch und zielgruppen genau liefern zu können.
Zweifellos wird aus diesem Grunde KEIN EINZIGES Spiel "nicht lauffÀhig" sein auf einer 3080 mit "nur" 10 GB VRAM.
Zweifellos werden vor 2023 keine neuen Konsolen erscheinen.
Zweifellos werden sich daher auch Next Gen Games bis auf weiteres am PC Gaming Markt der 4 GB VRAM fĂŒr Full HD fĂŒr "lĂ€uft" und 8 GB VRAM BestĂŒckung ab 1440p und 4K orientieren fĂŒr Maxsettings.

Zweifellos ist die VRAM Hysterie ĂŒbertrieben, und miese Ports und technische Engine Katastrophen wie ARK sind hier nicht Maßstab. Zum GlĂŒck, sondern Ausnahmen, welche die Regel weiterhin bestĂ€tigen.

Weckt mich, sobald hier auf Computerbase das erste Spiel in einem Techniktest eine "Warnung" erhÀlt auf der 3080 10 GB VRAM unter 4K bzgl. Unspielbarkeit und StabilitÀtsproblemen

Ich tippe, das wird in den nĂ€chsten 36 Monaten (= bis Oktober 2023) nicht passieren, und ich spende 200 Euro fĂŒr einen guten Zweck (im Namen der Computerbase Community), mit Beweis/Screenshot, wenn ich falsch liege.

Zitiert/Bookmarked das hier gerne.
 
Zuletzt bearbeitet:
  • GefĂ€llt mir
Reaktionen: Vitec, EyBananaJoe, .Sentinel. und eine weitere Person
Laphonso schrieb:
Zweifellos wird aus diesem Grunde KEIN EINZIGES Spiel "nicht lauffÀhig" sein unter 10 GB VRAM.
"LauffĂ€hig" sind die Spiele aber auch auf deutlich alten und billigeren Karten ebenfalls. Wer gerne 800€ ausgibt um dann die Details zu reduzieren, bitte gerne.
 
  • GefĂ€llt mir
Reaktionen: Vitali.Metzger
FatalFury schrieb:
LOL Marketing Alarm und du fÀllst voll drauf rein.
Na klar- Jetzt wo es zig Tests zu den Karten gibt, meint hier einer, dass sich Leute lieber WerbebroschĂŒren als diese Tests durchlesen und sich dann die Karten fĂŒr einen haufen Asche anhand von Werbeaussagen kaufen kaufen.

Die KĂŒnstliche Verknappung ist mittlerweile bewiesen.
Quelle? Du denkst, die machen das freiwillig bzw. böswillig?

BetA schrieb:
AMD is going to sell cards simply by having them :lol:
Deswegen verteilen sie jetzt schon angsterfĂŒllt Instruktionen an die HĂ€ndler, wie sie den Ansturm kontrolliert kanalisieren bzw. verknappen können... Wir werden sehen.

Jesterfox schrieb:
"LauffĂ€hig" sind die Spiele aber auch auf deutlich alten und billigeren Karten ebenfalls. Wer gerne 800€ ausgibt um dann die Details zu reduzieren, bitte gerne.
Es geht bei einem PC um eine skalierbare Architektur. Ist der Spieleentwickler vorausschauend und Userfreundlich baut er Settings ein, die jeweils mit dem aktuellen Topmodell auf 4K auf 30FPS+ lauffÀhig ist.
Vielleicht sogar Next- Gen- Settings, die noch fordernder sind, aber den zukĂŒnftigen Wiederspielwert erhöhen können.

Somit stellt Dein Statement eine Forderung dar, die Einstellungsmöglichkeiten und die GrafikkqualitĂ€t nach unten zu beschrĂ€nken, damit dann Nutzer einer Karte "XY" das GefĂŒhl haben alles auf Max/Ultra zu spielen.
Völlig unsinnig und unsozial gegenĂŒber jenen, die sich die Spiele erst spĂ€ter kaufen oder von Grund auf auf stĂ€rkerer Hardware spielen.

Ich habe mir fĂŒr unser Produkt schon ĂŒberlegt, mit einer Autoerkennung auch zeitgleich die maximal möglichen Grafiksettings zu skalieren. So dass der User immer und egal mit welcher Karte die Settings auf Ultra stellen kann, aber dann jeweils nur immer das Maximalsetting seiner Grafikkartenklasse zu sehen bekommt.

Das scheint psychologisch fĂŒr viele Spieler enorm wichtig zu sein.
Wir Entwickler finden immer einen Weg ;)
 
Wegen mehr RAM oder weniger:

Ich bin der Meinung, dass ich dies als netten Benefit sehe.

Wenn ich fĂŒr das ungefĂ€hr gleiche Geld aus dem roten Lager 6GB mehr RAM bekomme, als aus dem grĂŒnen Lager und ich dafĂŒr auf 5% Leistung verzichten muss im direkten Vergleich (ohne Raytracing und DLSS), dann greife ich lieber zur Variante mit dem Plus an Speicher. Das Beispiel bezieht sich auf RX6800XT und GeForce 3080.

Da muss man nicht alles dauernd tot diskutieren, wie lange 10GB noch reichen werden oder nicht.

Es ist einfach nice to have und bestimmt nicht schlecht, wenn man da ein bisschen besser planen kann. Wer weiß schon, wann man wieder aufrĂŒsten wird und wie sich die Spiele entwickeln.

Was DLSS und Raytracing angehen:
Ich wĂŒnsche mir da in Zukunft objektive Tests, wo man einerseits die Rohleistung misst und zusĂ€tzlich einmal mit Raytracing und zusĂ€tzlich mit Technologien a la DLSS.

Ich bin auch ĂŒberzeugt, dass DLSS eine tolle Sache ist und es ist schön, dass es von Nvidia gepusht wird.
Aber ich bleibe dabei. Wenn es so gut ankommt bei Entwicklern und Konsumenten, dann wird es kein Alleinstellungsmerkmal von Nvidia bleiben und es werden dazu passende (offene) Technologien kommen.

Man sieht es auch an Beispielen wie AMD Mantle was zu Vulkan und DX12 gefĂŒhrt hat.
Oder ob ein Monitor GSync oder Freesync hat.

Letztendlich wird es Möglichkeiten geben, welche alle einsetzen können.

Wenn mir mit meiner aktuellen RX5700XT die Frames zu wenig auf 4K werden, benutze ich eben Trixx Boost mit 85% oder Image Sharpening von AMD.
NatĂŒrlich mag da DLSS ein gutes StĂŒck besser sein - aber Hand aufs Herz:
FĂ€llt einem das sooo sehr beim Spielen auf?
Wenn ich durch welche Technologie auch immer an mehr Frames komme und mir das Bild gefÀllt, dann passt es doch.

Wenn man natĂŒrlich Spiele spielt wo hohe FPS eine Rolle spielen (schnelle Online Multiplayer Games), dann ist DLSS vermutlich wirklich eine super Sache um da ĂŒber 100FPS (oder auch ĂŒber 60FPS) raus zu kitzeln und dementsprechend auch solche Monitore zu bedienen, welche darauf abgestimmt sind.
Aber zu dieser Zielgruppe gehöre ich nicht. Ich möchte lieber ein fantastisches Bild haben und sehen was die Engines heute können und dafĂŒr reichen mir FPS ĂŒber 40. :)

FĂŒr mich stellt sich in den kommenden Wochen die Frage:
Wie kann ich Cyberpunk in 4K auf möglichst hohen oder ggf. maximalen Details spielen und eventuell auch Raytracing auszuprobieren?
Und mir geht es dabei um ein Spielerlebnis mit 40-60FPS, denn das ist die Range fĂŒr meinen Freesync 4K Monitor. Damit wĂ€re ich schon sehr happy.

Und selbst wenn Team GrĂŒn mit DLSS und Raytracing, dass aktuell super löst.
Wo kann ich denn aktuell eine 3080 kaufen, welche 700 Euro kostet?

Hoffen wir einfach,dass sowohl AMD als auch Nvidia zum WeihnachtsgeschĂ€ft liefern können, so dass alle glĂŒcklich mit ihrer Wahl sind. Letztendlich sind wir doch alle Gamer - egal ob Rot oder GrĂŒn. :)
 
Zuletzt bearbeitet:
  • GefĂ€llt mir
Reaktionen: TodboT
.Sentinel. schrieb:
Somit stellt Dein Statement eine Forderung dar, die Einstellungsmöglichkeiten und die GrafikkqualitĂ€t nach unten zu beschrĂ€nken, damit dann Nutzer einer Karte "XY" das GefĂŒhl haben alles auf Max/Ultra zu spielen.
HÀ? Ich glaub du hast mich völlig falsch verstanden. Ich vorder nicht dass die Settings beschrÀnkt werden sollen, ganz im Gegenteil. Ich will echte Ultra-Settings und eben auch Grafikkarten mit denen ich die nutzen kann. Also keine komischen 10GB "High-End" Teile...
 
Jesterfox schrieb:
Ich will echte Ultra-Settings und eben auch Grafikkarten mit denen ich die nutzen kann. Also keine komischen 10GB "High-End" Teile...
Echte Ultra Settings waren vor einiger Zeit noch so gestaltet, dass sie auf den aktuellen Karten mit gÀngigen Auflösungen gerade so noch spielbar waren (25FPS-30FPS).

Du forderst aber, dass die Ultra Settings so geartet sein mĂŒssen, dass Du mit Deiner Karte (Du beziehst Dich auf die 3080) alles auf Ultra stellen kannst und nicht schon irgendwelche abstriche machen musst.
Damit verknĂŒpfst Du fĂŒr Dich aber schon einige Voraussetzungen.

1.Du hast eine Auflösung im Kopf, bei der das möglich sein soll.
2.Du hast eine FPS Zahl im Kopf, die nicht unterschritten werden sollte.

Da PCs aber nunmal die fĂŒr Entwickler gleichweg positive wie negative Eigenschaft haben, ein gaaaanz breites Spektrum an unterschiedlichster Hardware und unterschiedlichster Vorstellungen von Usern bereitszustellen, muss ich als Entwickler JEDEM User und JEDEM Szenario irgendwie Rechnung tragen.

Das heisst, dass ich fĂŒr denjenigen der sich das Produkt in einem Jahr mit vermeintlich neuer, jetzt noch nicht erhĂ€ltlicher Hardware wenn möglich genauso eine Option schaffen muss, das System auszureizen, wie auch fĂŒr den Notebookspieler mit einem Ă€lteren Modell an Grafikkarte die Spielbarkeit zu erhalten.

Schließlich will ich Reichweite haben und dadurch meine Absatzgruppe erweitern und die technische AttraktivitĂ€t fĂŒr einen Kauf möglichst lange oben halten.

Deshalb bauen wir in der Regel umfangreiche GrafikmenĂŒs, so dass der Benutzer die Grafik und die Performance an seine BedĂŒrfnisse anpassen kann.

Wenn Du nun mit Deiner sagen wir mal 3080 nun ankommst und forderst, dass Du mit dieser Karte auf Ultra spielen willst, schließt Du automatisch alle Optionen darĂŒber aus und entscheides fĂŒr andere User mit stĂ€rkerer oder kĂŒnftiger Hardware mit, mit welcher grafischen QualitĂ€t sie maximal spielen dĂŒrfen.
 
Zuletzt bearbeitet:
  • GefĂ€llt mir
Reaktionen: Strubbel99
Luxmanl525 schrieb:
Hallo zusammen,

@ AfterBusiness

Beim Lesen deiner Silben habe ich mich unwillkĂŒrlich gefragt, ob das alles hier Humoristisch mit einem erheblichen Schuß Zynismus gemeint ist? Denn mit der RealitĂ€t kann es auf jeden Fall nichts gemein haben. Soviel zumindest ist sicher.

Vielleicht klĂ€rst du das mal etwas dedizierter auf. Soweit ich weiß, bin ich auch nicht der einzige, der da vor dem Bildschirm sitzt und nur noch den Kopf schĂŒttelt, gelinde ausgedrĂŒckt.


Verstehe deine Antwort nicht?!?... hÀh??? :confused_alt:
Du hast geschrieben das Du bei der 2070S bleibst, da es ja keine Speichererhöhung der 3000er Karten geben soll. Ist ja auch verstÀndlich... ich selbst hab ne 1070, da ist das was anderes, da der Sprung zur 3070 schon gewaltig ist. Mehr meinte ich eigentlich nicht..... :freak:
 
.Sentinel. schrieb:
Wenn Du nun mit Deiner sagen wir mal 3080 nun ankommst und forderst, dass Du mit dieser Karte auf Ultra spielen willst, schließt Du automatisch alle Optionen darĂŒber aus.
Ich verstehe deine Logik, aber eigentlich will ich das gar nicht ausdrĂŒcken. Es darf gerne noch grĂ¶ĂŸere Settings geben. Ich möchte nur nicht durch unfĂ€hige Hardware kĂŒnstlich in ihrer Nutzung beschrĂ€nkt werden.

Und eigentlich sollte das auch in deinem Interesse sein, denn wie wahrscheinlich ist es das solche Ultra-Texturen in einen Spiel landen wenn es so gut wie keine Karten gibt die damit umgehen können?
 
  • GefĂ€llt mir
Reaktionen: .Sentinel.
Die heben Sie sich auf fĂŒr die Super, die werden dann vllt ein bisschen teurer, aber viele werden sich dann wieder Ă€rgern.
 
Jesterfox schrieb:
Ich verstehe deine Logik, aber eigentlich will ich das gar nicht ausdrĂŒcken. Es darf gerne noch grĂ¶ĂŸere Settings geben. Ich möchte nur nicht durch unfĂ€hige Hardware kĂŒnstlich in ihrer Nutzung beschrĂ€nkt werden.
IT Hardware ist nie eine Investition in die Zukunft und immer bereits veraltet und beschrÀnkt, wenn sie auf den Markt geworfen wird.

Hier wird leider allzuoft der Faktor Software aus dem Blick gelassen.

Die Software und deren Umgang mit Ressourcen ist maßgeblich dafĂŒr verantwortlich, was Deine Hardware kann und was sie leistet, oder eben auch nicht.
Sehe ich als Spieleentwickler den Marktanteil von 10GB Grafikkarten ĂŒber ein fĂŒr mich kritisches Niveau heranwachsen, optimiere ich meine Software dahingehend, dass diese sinnvoll ausgeschöpft werden können.

Allein schon aufgrund der Konsolen wird die Software, die wir kĂŒnftig sehen werden in normalen Settings nicht ĂŒber die 10GB hinausgehen. Das sind bei Sony und bei Microsoft die nutzbaren VRAM- Reserven.
Bedeutet fĂŒr Dich - Mit einer 3080 wirst Du die nĂ€chsten Jahre auch unter 4K nicht in VRAM- Nöte kommen.

Zumal mit DX12Ultimate ja nun wirklich allerlei Mittel zur VerfĂŒgung gestellt wurden, den VRAM Bedarf wieder spĂŒrbar eindĂ€mmen zu können.

Lieblos hingerotzte Ports und technisch schlechte PC Software, die hardwareanforderungstechnisch ĂŒber die StrĂ€nge schlĂ€gt, wird es immer geben. Die Frage ist, ob man fĂŒr diese Kandidaten bereit ist, nur aufgrund ihrer technischen unzulĂ€nglichkeiten Tiefer in die Tasche greifen und zu einem Modell mit grĂ¶ĂŸerer VRAM Ausstattung zu greifen.

Und eigentlich sollte das auch in deinem Interesse sein, denn wie wahrscheinlich ist es das solche Ultra-Texturen in einen Spiel landen wenn es so gut wie keine Karten gibt die damit umgehen können?
Wir experimentieren hier mit Sampler feedback/ Sampler feedback Streaming/DirectIO bzw. Direct Storage.
Und mir fĂ€llt im Augenblick kaum ein Szenario ein, außer ich erzwinge es, dass ich mit feinst aufgelösten 4K 1:1 pixelgemappten Texturen ĂŒber 4-5 Gigabyte komme....
Man sollte die Möglichkeiten, die einem neue Technik bietet schon auch nutzen wollen.
 
  • GefĂ€llt mir
Reaktionen: foo_1337
Ich zeige es auch hier gerne nochmal.

FS2020, 3440x1440P Ultra Preset mit einer 3080 komplett im VRAM Limit.

Resultat...unspielbare Frameraten.

20201007_135044.jpg


Ich konnte mir erst nicht erklÀren warum die 3080 langsamer ist als meine alte 2080Ti. In 90% der anderen Spiele war sie erheblich schneller. Ich hatte noch nie zuvor irgendein VRAM Problem.

Nachdem ich allerdings ein YT Video gesehen habe, mit meiner Auflösung und einem VRAM Verbrauch von 10,8GB , war die Sache fĂŒr mich klar.

Genau so ist es auch. Mit der 3090 existiert dieses Problem nicht mehr.

Übrigens mit Ultra Wolken und viel Bewölkung , knallt eine 3090 komplett am Limit mit 100% Load. Die Ventus geht dabei auf 83 Grad bei 2500 RPM. FS2020 ist ein Monster.
20201021_154625.jpg
 
  • GefĂ€llt mir
Reaktionen: akuji13, PS828 und Flyerdommo
[
FatalFury schrieb:
Ja fĂŒr alte PS4 Spiele wo es nur 8GB gab. Godfall fĂŒr PS5 verlangt min 8GB nur fĂŒr FullHD auf dem PC. Die neuen Konsolen haben 16GB.
quatsch..ĂŒberhaupt nicht vergleichbar. Wir reden hier von Vram. Erschreckend hier.
 
t3chn0 schrieb:
Ich zeige es auch hier gerne nochmal.

FS2020, 3440x1440P Ultra Preset mit einer 3080 komplett im VRAM Limit.

Resultat...unspielbare Frameraten.
Erstens hat der Hersteller Grafikeinstellungen in seinem Produkt integriert. Das hat GrĂŒnde.
Mit einer 3080 könnte man darin einfach mal einen Regler um einen Ticken nach links bewegen.

Zweitens arbeitet Microsoft noch stark am Streaming und Speichermanagement und fĂŒhrt bis jetzt mit jedem Patch- Level diesbeĂŒglich Verbesserungen ein.

Drittens baut auch NVIDIA an ihren Treibern rum.

Viertens ist es eine Schande, dass ein Produkt, welches unter dem Namen Microsoft firmiert und welches die Schnittstelle DX12 Ultra zur VerfĂŒgung stellt, ein solches Projekt ohne Mesh Shader und den anderen technischen Möglichkeiten umsetzt, die Microsoft selbst propagiert.
 
  • GefĂ€llt mir
Reaktionen: foo_1337
ZurĂŒck
Oben