• ComputerBase erhält eine Provision für Käufe über eBay-Links.

News Ampere: Nvidia nährt Gerüchte um GeForce RTX 3080 mit 20 GB

.Sentinel. schrieb:
Bei den Board Partnern ja. Und Anfang August gab es da ja bereits undichte Stellen...

Also nichts Offizielles, was dem Konsumenten bekannt gemacht worden wäre. Damit bleibt es wohl bei Spatzen.
 
  • Gefällt mir
Reaktionen: Aquilid
boika schrieb:
Eine AMD werde ich aus Prinzip nicht kaufen, auch wenn diese drei mal so schnell ist.

warum nicht weil Lederjacke dich geblendet hat mit seinen Karten`?


Und komm mir jetzt nicht mit Treibern oder so nen quatasch.

Wenn AMD mit Big Navi gute Leistung bietet und etwas unterhalb der RTX 3080 ist würde ich immer noch AMD kaufen. Einfach nur um Nvidia nicht noch mehr Kohle zu geben dann werdet ihr mit der nächsten RTX 4080 wieder verarscht, so wie mit der 2080Ti im Preis aber bitte wers haben will...
Schon mal was von Monopol gehöhrt wenns von keiner Regierung kontrolliert wird muss der Kunde es verhindern.
 
  • Gefällt mir
Reaktionen: Aquilid, Zwenki, Hercule Poirot und 2 andere
boika schrieb:
Eine AMD werde ich aus Prinzip nicht kaufen, auch wenn diese drei mal so schnell ist

Leider schade und zeigt deutlich auf, dass "fanatischer Fanboy ohne Nachdenken" leider immer noch stark verbreitet ist.
 
  • Gefällt mir
Reaktionen: Aquilid, Zwenki, DaBas und 12 andere
Duke711 schrieb:
Das haben andere schon gemacht oder das Du das selbst getestet, ich glaube wohl eher nicht?
Schmeiss Dein nsight an, mach nen VRAM Dump, dann siehst Du, das die garbage- collection nicht ordentlich funktioniert.
 
Otsy schrieb:
Also nichts Offizielles, was dem Konsumenten bekannt gemacht worden wäre. Damit bleibt es wohl bei Spatzen.
Natürlich nicht. Dennoch war das mit PG142-0 und PG142-10 schon seit Anfang August bekannt.
Auch, dass es schon entsprechende Konfigurationen bei den Herstellern gab.
 
.Sentinel. schrieb:
Schmeiss Dein nsight an. Dann siehst Dus.

Aha kommen jetzt noch weitere haltlose Behauptungen von Dir, offensichtlich hast Du das ja nicht getestet, aber einfach mal Behauptungen aufstellen. Fakt ist nun mal HZD braucht in UHD 16 GB, ansonsten hat man ordentliche Mikrorucker. Mal die Frametimes von einer 24 und 16 GB Karte mit der von einer 11 GB und weniger vergleichen.
Das nächste Tomb Raider wird garantiert mind. 10 GB brauchen, ganz einfacher Trend.
 
  • Gefällt mir
Reaktionen: cyberpirate
Duke711 schrieb:
Aha kommen jetzt noch weitere haltlose Behauptungen von Dir, offensichtlich hast ... 11 GB und weniger vergleichen...
Lies Dir nochmal in Ruhe durch, was ich geschrieben habe. Ich geb Dir sogar die Anleitung dazu, das selbst zu prüfen.
 
SirDoe schrieb:
Welche Nachteile sind das denn ganz allgemein von denen man ausgehen muss/kann?
Überleg einfach mal was passiert, wenn der GPU der VRAM ausgeht. Das ist das gleiche Prinzip wie beim RAM. Es wird ausgelagert. (beim RAM dann direkt auf HDD/SSD). Beim VRAM geht das zuerst in den RAM, und wenn der voll ist (also der GPU zugewiesene max. Auslagerungsspeicher (wird üblicherweise vom Treiber eingestellt)) im Zweifelsfall auch auf HDD/SSD.
Wie man sich denken kann ist aber die Anbindung an den RAM (~26GB/s bei DDR4 3200) bzw. SSD (~ 8GB/s im Idealfall einer Pcie4.0x4 SSD) deutlich langsamer als beim VRAM
(je nach GPU unterschiedlich, wir sprechen bei aktuellen GPUs aber von mehreren hundert GB/s. z.B. RTX 3080: 760 GB/s).
Dazu kommen noch ziemlich große Latenzen, wenn für die Bildzusammensetzung die Anfrage zu einer geladenen Datei (im RAM/SSD) erst über die CPU und den Speichercontroller (RAM) bzw. Chipsatz (SSD) geleitet werden muss (und wieder zurück).
Was also passiert, ist, dass die Datei für das Bild/Frame erst 1. ziemlich spät (Latenz) und 2. nur sehr langsam (Durchsatzrate) ankommt.
A) Wenn die GPU das Bild erst berechnet, wenn alles da ist, wird man also heftige Framdrops spüren, und zwar immer dann wenn Daten in RAM/SSD gebraucht werden.
B) Ignoriert die GPU aber, dass noch Teile fehlen und berechnet "schon mal" das fertige Bild, wird man Artefakte und andere hässliche Effekte sehen, da das Bild ohne die Objekte im RAM/SSD berechnet wurde (das müssen ja nicht nur Meshes/Texturen sein, sondern könnten ja auch wichtige Daten zur Berechnung von der Beleuchtung/Schatten sein....)

Nach den heutigen Verfahren Passiert eher A).

Wie aber viele hier angemerkt haben ist aber für viele Szenarien (selbst in 4k) 10GB VRAM genug sind. Halt immer abhängig davon, wie lange die "halten" soll/wann man wieder upgraden möchte. Und natürlich auch vom Anwendungsszenario.
Ich persönlich modde als Hobby extrem gerne SkyrimSE&Fallout4. Heißt: Unter 16GB VRAM werde ich nicht upgraden.
Würde ich das allerdings nicht machen (also für alle anderen Games, die ich so spiele), würden mir 8GB locker reichen. Alles immer eine Frage des Anwendungszwecks.
 
  • Gefällt mir
Reaktionen: megaapfel, EyRaptor, iceshield und 4 andere
.Sentinel. schrieb:
Und- Was soll das heissen?
Dass man mehr braucht, obwohl der ganze Bildschirm schon mit knackscharfen Texturen vollgepflaster ist?
Da hättest Du dann immernoch 2GB Platz über mit ner 3080!

Ja und mit der Quadro schluckt das Ding dann 48GB.

Nein- Sie allozieren 10GB.

Im Gegenteil. Es ist unwahrscheinlich, dass jetzt plötzlich alle Spiele in 4K über 10GB VRAM benötigen werden.

Danke, dass du hier das Gegengewicht zum VRAM-Wahn bildest :)

Magogan schrieb:
Mir tut ja der Typ leid, der eine RTX 3080 mit 10 GB für 89.300 US-Dollar ersteigert hat 😂

Ich bin mal gespannt, was AMD liefern wird, offenbar braucht NVIDIA wieder Konkurrenz, sonst steigen die Preise wieder so hoch, wenn die "echte" RTX 3080 rauskommt.

Wer so viel Geld für eine Grafikkarte ausgeben kann, braucht dir beileibe nicht leidtun. Dem wird es gut genug gehen.
 
  • Gefällt mir
Reaktionen: Shoryuken94
.Sentinel. schrieb:
Lies Dir nochmal in Ruhe durch, was ich geschrieben habe. Ich geb Dir sogar die Anleitung dazu, das selbst zu prüfen.
Du hast übrigens nur das geschrieben was ich zitiert habe und getetest an einer Readon oder Titan hast Du es auch nicht, wollen wir mal so festhalten.
 
2014//Samsung u28e590d --> GTX660raus GTX780rein 3GB V-Ram (freu)..... 2016// GTX780 raus GTX1080 rein 8GB V-Ram (freu) ..... 2020// GTX1080 raus RTX3080 rein 10GB V-Ram (grummel)

von 2014 auf 2016 --> +167% V-Ram -->:daumen:
von 2016 auf 2020 --> + 25% V-Ram -->:freak:

eigentlich hätte die 3080 um die 26GB haben müssen :love::rolleyes:
 
Zuletzt bearbeitet:
.Sentinel. schrieb:
Alles feinst aufgelöste Texturen bis in den letzten Winkel bei hoher Sichtweite etc
ich weiß nicht ob es nur Texturen sind. Denke mit RT usw. muss ja nachher das finale Bild zB wieder zusammengeführt werden, denkbar dass da schon deutlich größere Mengen anfallen können. Rein von den Texturen allein sicher weniger.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Majestro1337 schrieb:
Ich würde mir als Käufer der 8/10er (vor allem der 8er) Karten so verarscht vorkommen, wenn einige Monate später die 16/20er kommen.
Aber das wird ebendiese Leute nicht davon abhalten nächstes Mal wieder direkt zum Release mit Geldbündeln nach Nvidia zu werfen. Und das wissen die ganz genau.
Der Konsument verarscht sich im Kapitalismus am Ende selbst 🤷‍♂️

Ich würde mir als Käufer einer Tomate ja echt verarscht vorkommen wenn morgen im Super-Markt eine neue frischere Tomate zum gleichen Preis angeboten wird.

Leute wie Du wünschen sich scheinbar Stillstand sind aber die ersten die bei Stillstand jammern. Man kauft sich meistens etwas was man braucht und gerade in der "Unterhaltungstechnik" kommt IMMER was neues und besserers das wird immer so sein, wer da von verarschen redet dessen geistige Fähigkeiten hören an der Nasenspitze auf aber für solche Personen wurden ja auch Klettverschluss-Schuhe erfunden. ;-)
 
  • Gefällt mir
Reaktionen: Cohen, JohnnyTexas, robertsonson und 4 andere
Mh, 3080 kaufen und Cyberpunk mit Raytracing genießen oder auf die 20GB Variante warten... Ich bin nach wie vor unentschlossen.

Scheiß 1th World Probleme.
 
  • Gefällt mir
Reaktionen: JohnnyTexas, Death_end_Hero und Cpt.Willard
dynastes schrieb:
Danke, dass du hier das Gegengewicht zum VRAM-Wahn bildest
Um dort keinen falschen Eindruck zu liefern. Mir ist klar, was viele User hier befürchten.
Nämlich, dass sie sich jetzt eine High- End Karte kaufen und dann in einem oder zwei Jahren anfangen müssen, die Regler nach links zu stellen.

Das ist hier für viele eine unüberwindbare Hürde, weil man ja so viel Geld hingelegt hat um eben nicht begrenzt zu werden oder das Gefühl haben zu müssen von irgendetwas nicht das Maximale haben zu können.

Dadurch, dass ich aber inzwischen weitreichende Einblicke in Sachen ressourcenverteilung moderner Spieelengines habe, muss man als neutraler Beobachter feststellen, dass ab einem gewissen VRAM Anteil einfach alle Assets mit hochauflösenden Texturen gesättigt sind.

Es besteht überhaupt keine Notwendigkeit für ein modernes Spiel, welches nicht völlig unverantwortlich mit den Ressourcen umgeht, für 4K größere Mengen an VRAM zu verbrauchen als es einem eine 3080 ermöglichen würde.

Auch mit Raytracing, wofür man ja nochmal ca. 1GB VRAM dazurechnen sollte, sollte der VRAM ausreichen.
Zumindest für die par hybrid Effektchen, die diesbezüglich eingesetzt werden.
DirectX12 Ultimate und ein zukünftiges direct Storage tun ihr Übriges und werden künftig dem steigenden VRAM- Bedarf entgegenwirken.

Ausnahmen in der Nutzung gabe es schon immer und wird es auch immer geben. Die Frage, die man sich dabei stellen sollte, ist, ob es einem die schätzungsweise 200 Euro mehr Wert ist, dann in zwei Jahren vielleicht bei wenigen Titeln einen kleinen Vorteil dadurch erhalten zu können.

Meist wird die Grafikkarte sowieso wieder getauscht, bevor der VRAM groß anfängt zu limitieren.
Denn die Zeiten der großen Steigerung der Texturauflösungen ist inzwischen vorbei.

Und wie gesagt- Die Konsolen als DER große Indikator wieviel Speicher die nächsten Jahre gefragt sind (zufälliger Weise 10GB), ist auch noch da.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SirDoe, dynastes, Death_end_Hero und eine weitere Person
Erinnert ihr euch wenn man mit GTX970/80 sagte 4GB Vram ist mehr als genug und jetzt sind wir bei 10 und sogar 20GB woher kommt diese explosion? Ist es wirklich nur wegen 4k?
 
  • Gefällt mir
Reaktionen: megaapfel
Schlauer als evtl. ein halbes Jahr und mehr zu warten ist jetzt eine 3080 RTX 10GB zu kaufen und 2 Jahre zu genießen, meine 1070 GTX zurück halten und wenn der Refresh kommt, 1-2 Wochen vorher für fast das gleiche Geld zu verkaufen und sich dann die Refresh Karten mit mehr Leistung und genug Speicher zu kaufen.

Bis die 10 GB wirklich limitieren wird es noch lange dauern. Man sieht doch in Test's, dass es fast kein Unterschiede zu 6GB und 8GB Variante gibt in Sachen FPS Drops und das trotz angeblich Spiele die mehr verlangen, erst bei 4GB Speicher gibt es deutliche Unterschiede...

Soll jeder machen wie er es für richtig hält :)
 
  • Gefällt mir
Reaktionen: etoo und .Sentinel.
PrinceVinc schrieb:
Erinnert ihr euch wenn man mit GTX970/80 sagte 4GB Vram ist mehr als genug und jetzt sind wir bei 10 und sogar 20GB woher kommt diese explosion? Ist es wirklich nur wegen 4k?
Ein Teil davon sind die Assets selbst, also die detailreicheren Modelle un Welten. Der Großteil sind aber tatsächlich die virtuellen Tapeten aka Texturen.

Nicht zu verachten sind die Bildverbesserer bzw. Kantenglättungsverfahren mit mehfach- Supersampling.
Und der Killer schlechthin sind inzwischen die Schatten.
Ob tile- based, cascaded oder wie auch immer. Die schlucken GPU Ressourcen ohne Ende, will man nicht in der Flimmer und Krisselhölle schmoren.

RTRT kann dem Mehrverbrauch z.B. in der Schattengenerierung wieder entgegenwirken.
 
  • Gefällt mir
Reaktionen: megaapfel
PrinceVinc schrieb:
Erinnert ihr euch wenn man mit GTX970/80 sagte 4GB Vram ist mehr als genug und jetzt sind wir bei 10 und sogar 20GB woher kommt diese explosion? Ist es wirklich nur wegen 4k?

Die Spiele werden für die Kundschaft entwickelt und wo mehr Ressourcen vorhanden sind, werden auch mehr Ressourcen genutzt. Dann verwendet man halt bessere Texturen, spart an der Optimierung oder lässt einen weiteren Blick zu, wodurch automatisch wieder mehr Texturen im Speicher geladen werden müssen.

Dieser Prozess passt sich aber in erster Linie daran, was bei den Kunden in den Rechnern verbaut ist und nicht umgekehrt. Es macht für die Entwickler wenig Sinn, Ressourcen zu verschwenden um Produkte zu entwickeln, die dann kaum jemand sinnvoll nutzen kann.

Der Punkt ist, 16GB VRAM werden irgendwann sinnvoll sein. Der Punkt ist aber auch, Millionen PC Spieler werden nicht plötzlich in die Läden rennen, ihre Hardware aus dem Fenster werfen und Grafikkarten mit 10GB+ VRAM kaufen und auch bei den Konsolen kann man von einer 10GB VRAM Obergrenze sprechen, mehr sind auf der Xbox nicht sinnvoll nutzbar.

Es wurde hier schon 1000 mal durchkaut, wer der Meinung ist er bräuchte mehr als 10GB VRAM der soll warten und für ihn passende GPU kaufen. Der zusätzlichen VRAM wird es aber nicht umsonst geben und der Rest steckt sich besser das Geld zur Seite und kauft sich in zwei Jahren eine schnellere GPU mit mehr VRAM dann, wenn es auch wirklich benötigt wird.

Es wird auch in den nächsten 5 Jahren kein Spiel geben, was mit 8GB oder 10GB VRAM gar nicht laufen wird, letztlich ist die Diskussion also sowieso müßig. Es gibt auch Millionen Spieler die sich eine AMD Navi Karte gekauft haben und dort wird man ohne jegliche RT Unterstützung noch viel größere Kompromisse eingehen müssen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Cohen, megaapfel, SirDoe und 2 andere
Zurück
Oben