News GPU-Gerüchte: Hinweise auf GeForce RTX 3070 (Ti) mit GA104

Sprechen wir doch nochmal über Preise.

Prozessor, RAM, Lüfter, Weiterentwicklung/Tuning der Custom Anbieter, Langzeittreiberservice und Support... 500,-€ sind geschenkt.

Diese Geiz Mentalität ist ja langsam erschreckend. Und der Vergleich mit den Krücken von früher wo eine GPU nur ein kleiner unterstützender Zusatzprozessor mit lächerlichem VRAM war die man jedes Jahr neu kaufen musste ist lächerlich.
 
sehe ich auch so, billig soll es sein aber alles drin haben. Ich habe lieber bezahlbare Preise als überbordenden VRAM, den man nur in seltenen Szenarien braucht, der dafür den Preis der Graka aber gleich wieder locker um 100 Eur nach oben treibt. Klar hätte ich gerne mehr, nur ist es halt nicht realistisch.
 
Smartin schrieb:
sehe ich auch so, billig soll es sein aber alles drin haben. Ich habe lieber bezahlbare Preise als überbordenden VRAM, den man nur in seltenen Szenarien braucht, der dafür den Preis der Graka aber gleich wieder locker um 100 Eur nach oben treibt. Klar hätte ich gerne mehr, nur ist es halt nicht realistisch.

Schade dass der "sinnvolle Mittelweg", also beispielsweise im Falle einer xx70 irgendwas um 10-14GB, technisch nicht machbar ist für viele Karten.

8GB auf einer xx70 sind unter Umständen doch zunehmend limitierend auf einer next-gen-Karte, die eher dem gehobenen Leistungssegment zuzuordnen ist. Plausible sind die Bedenken ja. 16GB wiederum sind dann wohl mehr als man in einem Gaming-Umfeld dauerhaft sinnvoll nutzen könnte. Die RTX2060/RX5600 mit ihren 6GB haben dasselbe Problem imho.
 
milliardo schrieb:
8GB auf einer xx70 sind unter Umständen doch zunehmend limitierend auf einer next-gen-Karte, die eher dem gehobenen Leistungssegment zuzuordnen ist. Plausible sind die Bedenken ja. 16GB wiederum sind dann wohl mehr als man in einem Gaming-Umfeld dauerhaft sinnvoll nutzen könnte. Die RTX2060/RX5600 mit ihren 6GB haben dasselbe Problem imho.

Ich habe ja jetzt auch 8 GB. Aktiviere ich irgendwo (was ja mittlerweile auch bei GTX10 Karten möglich ist) RTX genehmigen sich RTX Spiele um die 500 MB zusätzlich. That's it. Maximal ist meine VRAM Auslastung bei 6 GByte bzw. knapp drüber.

Ich bin mir sicher das kommende Super Varianten auch bei xx60 und xx70 jeweils auf 8 bzw. 10GByte aufstocken werden. Aber es besteht noch keinerlei Not dazu.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Smartin
milliardo schrieb:
[ ... ] 16GB wiederum sind dann wohl mehr als man in einem Gaming-Umfeld dauerhaft sinnvoll nutzen könnte. [ ... ]

Nach 16 GB wird doch seit Release der RTX 2080 gebrüllt. Komischerweise geht der Karte bis heute in keinem Spiel (außer eventuell in einem künstlich konstruierten Bastel-Fall) der Speicher aus.
 
  • Gefällt mir
Reaktionen: Smartin, milliardo, xexex und 2 andere
Ich bleibe dabei dass sich der Bedarf an Grafikspeicher wahrscheinlich weniger stark entwickeln wird als angenommen, wegen der neuen Technik mit Streaming über pcie 4 von der ssd, wie es in den neuen Konsolen bereits angekündigt wurde.
 
  • Gefällt mir
Reaktionen: redlabour
AYAlf schrieb:
Und ich halte meine GTX 1080Ti für eine FHD Karte, die mir langsam zu langsam wird.
So verschieden sind die Sichtweisen.
ja, manche bilden sich auch ein, mehr wie 30 bilder/sec wahrzunehmen, dabei ist es eben technisch ein unterschied von pc zu z.b. tv. tv=konstante bildwiederholfrquenz, pc = keine konstante bildwiederholfrequenz. kenne derweil niemanden, der sich am tv mit maximal 48 (konstanten) FPs wegen tearing beschwert...
da ich immer minimum alles auf 2k spiele, kann ich ja froh sein, nicht unnötig euronen für ne 1080ti ausgegeben zu haben^^
 
  • Gefällt mir
Reaktionen: Sunjy Kamikaze
Was die Leute hier mit VRAM haben:

Tomb Raider in 4K und RT High

SOTTR_2020_07_10_00_01_21_281.jpg


Da läuft nicht einmal 1GB mehr in den VRAM im Vergleich zu WQHD, obwohl da 2,25 mal mehr Pixel vorliegen. Viel dramatischer ist da die Rohleistung der GPU, denn die reicht vorne und hinten nicht für ein flüssiges Spielerlebnis (und entgegengesetzt mancher Ansicht, werden 50fps auch nicht mit FreeSync/GSYNC-compatible flüssig - zumindest für mich nicht.)
 
Zurück
Oben