News GPU-Gerüchte: Hinweise auf GeForce RTX 3070 (Ti) mit GA104

ist natürlich schwer zu realisieren so ein Vergleich da die GPU´s mit mehr VRAM auch meist die voll ausgebauten Chip Modelle darstellen.

Ein denkbares Szenario wäre die 2080 TI runter zu drehen das sie nahezu exakt auf dem Level der 2080 liegen würde in diversen Benchmarks.
Im Anschluss kann der Frametimevergleich unter z.B Ark oder CODMW etc etc... starten.
 
marc31mo schrieb:
deshalb frag ich ja nach frametime verläufen...

Würde mich auch mal interessieren. Einfach etwas breiter beleuchtet. Was man dazu im Internet findet sind meistens sehr überschaubare Abhandlungen mit wenigen Spielen, intra-Hersteller-Vergleichen, fehlenden Angaben zu den Frametimes und/oder Karten mit wenig Vram.

Zuletzt z.B. irgendwas auf GN: Sind alte Mittelklassekarten mit 2GB schlechter gealtert als solche mit 4GB? (Fazit: Ja, aber beide sind nicht mehr brauchbar - unabhängig vom Speicher)

Das umfangreichste war noch das hier:

https://www.techspot.com/article/1785-nvidia-geforce-rtx-2060-vram-enough/

Da sind 6GB (!) auf Turings angeblich ausreichend für 1440p und sogar 4k (Stand Januar 2019).
 
Unbestreitbar kann ich meine R9 390X heute noch noch verwenden. Und das Liegt nicht an der brachialen Leistung. Der VRAM hingegen ist immer gut gefüllt und hat sicherlich das ein oder andere game mehr möglich gemacht.

Da Wechsel ich doch auf keine Karte mit 8 GB :D da spricht man immer wieder von PC Master race aber so wirklich voran geht's auch nicht ^^

Am Ende entscheidet der Kunde ob ihm NVidia auch noch für eine weitere Generation minimale Speicherzuwäche verkaufen kann oder ob der Kunde es leid ist dass die Karte nach einiger Zeit nicht mehr reicht. Zumindest in meiner Erfahrung, und weil ich Karten länger benutze, ist es hoch nie schlecht gewesen auf die Variante mit mehr VRAM zu setzen
 
  • Gefällt mir
Reaktionen: Chismon
kein Wort über display port 2.0 oder VVC support, für mich also noch uninteressant.
 
Zuletzt bearbeitet:
Synxalot schrieb:
Sollte ich Aufrüsten, wird die XX70(TI) Serie wieder meine Karte. Zumindest die 970/1070 waren von der Preis/Leistung her ganz ordentlich. Die xx80(TI) Serien waren immer über meinem Budget, und auch oberhalb meiner Anforderungen.

Es könnte jedenfalls ein Teures Weihnachtsfest werden. Der Prozessor möchte auch ein Upgrade erfahren. Nicht weil er zu langsam ist, sondern weil sein Besitzer mal Lust auf was neues hat. Immer diese Sinnbefreite Geldvernichtung auch Hobby genannt :D
Releasepreise:
970 - 300€
1070 - 400€
2070 - 500€
3070 - Preis kann man sich denken
 
  • Gefällt mir
Reaktionen: Windell und megaapfel
romeeee schrieb:
Nur dass man in den Jahren 1-6 dann mehr Leistung hätte als mit 200€ Karten, am Anfang erheblich mehr als am Ende. Wenn man davon ausgeht, dass man nach 2 Jahren von einer 200€ Karte noch die Hälfte wieder bekommt, zahlst du im Endeffekt 300€ mehr für 6 Jahre Mehrleistung mit der 800€ Karte. Finde ich jetzt keinen schlechten Deal.
Nur dass die Milchmädchenrechnung eben bei den meisten gar nicht aufgeht, sondern viel früher was neues eintrudelt und für 200€ kauft kaum noch jemand irgendwas neues um damit wirklich zu Gamen...
 
Eine GPU die man selber bestücken kann mit vram wäre ja mal was !🤡!:D
Dann wäre vieleicht auch das mimimimimi mal weniger :lol:
 
  • Gefällt mir
Reaktionen: iron-man und megaapfel
redlabour schrieb:
8 GByte werden noch lange ausreichen. 🙄 Das Genörgel über 8GB ignoriert jedesmal den Fakt das bei mehr VRAM einfach mehr Ballast geladen wird der überhaupt nicht nötig ist.
Ich gehe jede Wette ein, dass in spätestens 3 Jahren der RAM in den gängigen AAA Titeln wie Battlefield voll sein wird bei 4k und maximalen Details. Das war schon immer so, selbst als der RAM noch mit der neuen Generation größer wurde. Wieso sollte es jetzt anders sein?
 
Sollten die Gerüchte stimmen, so werkelt NVidia schon wieder an minimalistischen aber extrem teuren Rohrkrepierern herum.
Wir wissen doch jetzt schon, dass 8GB RAM gerade so für WQHD ausreichen, aktiviert man dann auch noch Raytracing, so dürfen es schon jetzt spätestens in 4K aber auf jeden Fall schon mal mehr sein.
Alles unter 12GB RAM und aber 400-500 Euro Preis ist absolute Verarsche am Kunden.
Ich werde mir jedenfalsl keine Karte holen, die ständig wegen zu wenig RAM das Spielestreaming extrem fordert und Details verschluckt und Texturen erst sehr viel später nachlädt, oder überhaupt nicht (interne Detailreduktion durch Speichererkennung).
12GB sind ein Muss, 16GB zumindest für eine längere Nutzung und ggf. Zweitverwertung zukunftssicher genug.
Wer nur FullHD spielt, dem reichen auch 8-10GB.
Man mus simemr wieder sehen, wiviel geld man dafür ausgibt, und aus welchem grund man schon schnelelr als einem lieb ist die Detailregler nach links ziehen muss, ich möchte jdenfalsl kein pipi in den Augen haben, weil das ganze Geld futsch ist udn man trotzdem nicht viel Spaß damit hat.
Ergänzung ()

redlabour schrieb:
8 GByte werden noch lange ausreichen. 🙄 Das Genörgel über 8GB ignoriert jedesmal den Fakt das bei mehr VRAM einfach mehr Ballast geladen wird der überhaupt nicht nötig ist.

Wenn man keine keine Tests dazu liest....
Es ist bereits bewiesen worden, welche Auflösungen wieviel RAM benötigen und was empfohlen wird, wenn man aktuelle Grafikkracher zocken möchte. Aktuelle wohlgemerkt. Eine neue Karte für über 500 Euro soll aber nicht nur dieses Jahr laufen, sondern evtl. auch ein paar Jahre.
Man kann bereits eine 2080 Ti in 4K mit 11GB RAM vollpumpen, während 8GB Karten, also eine 2080 ordentlich Federn lassen.
Raytracing in Verbindung mit den Low-level-API's benötigt mehr Speicher als ohne.
Man empfiehlt bei den derzeit aktuell erhältlichen Karten noch 6GB für FullHD, 8GB für WQHD, und natürlich am besten gleich 11GB für 4K (letzteres kostet aktuell natürlich, aber solche Leute investieren ja auch 1000-2000 Euro in einen speziellen Bildschirm).
Damit man bei entsprechender GPU-Leistung auch die Regler nach recht sziehen kann, ohne dass der Speicher limitiert udn die Spiele anfangen zu schummeln oder gar Ärger machen.
Und wer jetzt wieder den Spruch bringt "meine 4GB Karte macht aber 60 frames in 4K!" der hat weder auf das Streaming geachtet, den Wegfall von Details, aufploppenden Dingen, fehlenden Texturen, Mikroruckler und kurze Stotterer, was nebenbei produziert wird, wenn die Engine aus dem letzten Loch pfeift. Oder er spielt anspruchslose Titel.
Einige mag es ja nicht stören, die haben vielleicht auch schon Spiele mit nur 30fps gezockt und Spaß gehabt, aber es ist imerm eine Frage der wirklich flüssigen Darstellung ohne Trickserei udn Schummelei, vor allem bei den horrenden Preisen.
Also wo man mal mit voller Absicht eine 2060 mit 6GB kollabieren ließ war ein vergleich mit einer 2070 mit 8GB in Wolfenstein 2.
Dort hatte man am Ende bei 4K oder 5K mit voll aufgedrehten Reglern irgendwas mit 20+ gegen knapp 70 Bilder pro Sekunde, obwohl die 2070 sonst nur sag ich jetzt mal 15 oder max. 20% schneller ist.
Das war ein einfaches Beispiel, wie man bei zu wenig RAM knallhart bestraft wird.
Ich möchte nur davor gewarnt haben.
Klar kann man vielleicht sehr viele Titel ohne Probleme in WQHD auch noch mit 8GB Karten voll genießen, aber ich gebe nicht so viel Geld dafür aus, wenn man die Uhr danach stellen kann, wann einem die Luft ausgeht.
Es ist aber nunmal so, das man bei einer teuren neuen Hardware auch mal ein Spiel von Morgen mit einem AHA Moment bestaunen können möchte.
Und wehe dem, der dann Probleme bekommt udn sich ärgern muss.
Ich will jetzt auch nicht nur auf NVidia herumtrampeln, auch AMD hat bereits mit der 5600XT gezeigt, dass 6GB Karten voll fürn A sind, und man auf jeden Fall die paar Euro mehr für eine 5700 mit 8GB ausgeben sollte, oder halt nur eine einfache 5500XT mit 8GB nimmt, wensn Geld nicht langt und man AMD haben möchte.
Es ist das halt das gleiche wie wie Arbeitsspeicher. 8GB sind jetzt schon zu wenig, 16GB sind Minimum für einen neuen PC. Oft genug getestet udn mit Frameverläufen und Frametimes aufgezeichnet und bewiesen.
Erste Titel geben minimale Vorteile mit 32GB. braucht man also jetzt noch nicht, aber wenn die komplette Basis ca. 5 Jahre oder mehr durchhalten muss und man auch mal den Browser etc. auf hat, dann ist das später eine ganz normale Belegung.
Solange solche Dinge dann 30-50 oder beim Arbeitsspeicher dann ggf. bis zu 100 Euro Aufpreis für einen ganzen Rechner sind, sollte man sie auf jeden Fall mitnehmen, dann hat man da später kein Gucken nach, und man kann sich auch mal beliebte Texturmods etc installieren, oder halt Dinge wie Browser nebenbei nutzen.
Oh Mist, wieder so viel geschrieben. Ich hör schon auf. Sorry. :-))
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Chismon, Windell, Cpt.Willard und 3 andere
Smartin schrieb:
Ich verstehe nicht, warum immer alle so nach VRAM schreien. 8Gb reichen dicke. Man stelle sich vor, NV würde 16GB als Minimum rausbringen. Wenn soviel mehr Ram verbaut wird, steigen die Kartenpreise noch mehr und die Mittelklassekarten mit weniger RAM werden unbrauchbar, weil die Publisher schlampiger programmieren und mehr RAM verbrauchen, als eigentlich nötig wäre (nur weil er da ist). Klar will ich auch immer mehr und mehr, man muss sich hier aber mal fragen, ob das wirklich im Interesse der Kunden wäre. So kann man sich aktuell auf jeden Fall sicher sein, dass Spiele mit 8GB laufen, weil das nicht nur im unteren Grafikkartenbereich Standard ist, sondern auch im Oberen genauso wie bei den Konsolen. Ich glaube jedenfalls, dass der Aufschrei groß wäre, wenn die jetzigen 200 Eur Mittelklassekarten demnächst mindestens 300 Eur kosten.
Bei der 970 und dem Speicherskandal haben damals auch viele "Experten" hier gemeint, dass ja 3.5 GB eigentlich auch dicke reichen würden. Und selbst zu dem Zeitpunkt kam man schon in GTA 5 drüber in 3 und 4k. Aber naja, ist ja nichts neues, dass nVidia am RAM spart und die Leistung über die GCA rausholt. Wäre halt gut gewesen, wenn sie wenigstens mal 10 anstatt 8GB spendiert hätten, damit man nicht wieder so schnell ans Limit kommt, denn mittlerweile dürften auch viele Spieler Auflösungen über Full HD haben, von VR ganz zu schweigen.

Hoffentlich hat die 3070 dann auch wenigstens die vollen 8GB und nicht 7,5 wie damals.
 
Man müsste den VRAM künstlich belegen können um dann zu schauen, ab wieviel GB die Performance nachlässt. Es gibt z.B. GpuRamDrive, welches theoretisch diesen Zweck erfüllen könnte. Leider hat es bei meinen Tests den VRAM immer freiwillig aufgegeben, wenn dieser knapp wurde.

Ist es in der Theorie möglich, VRAM für andere Programme einwandfrei zu blockieren oder macht einem die Speicherverwaltung einen Strich durch die Rechnung?
 
Schreibt doch keinen Unsinn, wenn der VRAM nicht ausreicht wird in den RAM ausgelagert und je nachdem wie wichtig die Daten sind wirkt sich das entsprechend auf die Framerate aus. Im besten Fall merkt man davon nichts weil es nur relativ unwichtige Texturendaten betrifft und im schlechtesten Fall bricht die Framerate in den einsteligen Bereich ein. Sobald es aber anfängt performance relevante Daten zu betreffen merkt man das als erstes an den typischen Nachladerucklern und schlechter werdenen Frametimes.

Die neunmal Klugen merken davon natürlich nichst weil sie schon vorher für bessere Frameraten die Details runtergeschraubt haben.
 
Würde mich über eine Karte freuen die 50% schneller ist als meine 980Ti für max. 300-350€.
Hatte meine 980Ti vor genau 4 Jahren für 280€ im Blitzangebot erstanden bei Amazon.

Möchte daher inkl Verkauf meiner 980 Ti möchte ich nicht mehr als 200-250€ ausgeben.
Ergänzung ()

Zombiez schrieb:
Releasepreise:
970 - 300€
1070 - 400€
2070 - 500€
3070 - Preis kann man sich denken
Traurige Wahrheit...
 
Zuletzt bearbeitet:
8 GB VRam ist heute schon viel zu wenig. Nur weil hier einige keine Tests lesen können, bleibt es trotzdem wahr.
Ich finde es furchtbar wie einige hier ihre 8GB Krücken schön reden. Das hilft wirklich niemanden weiter.

Aber das war leider schon immer so. Mit Fortschritt kann leider nicht jeder umgehen, weil es ja was ändern könnte. OMG
 
@AYAlf Welcher Fortschritt? Bleibt ja bei 8GB wenn die Gerüchte stimmen. Mir wird es auf alle Fälle reichen. Solange der Monitor nicht schlapp macht bleib ich bei FHD 60Hz.

Und zum Thema Krücken: Die XX80TI werden immer ein Nischenprodukt sein. Da haste grad mal schön den Großteil aller PC User beleidigt. Grats.
 
megaapfel schrieb:
Aber naja, ist ja nichts neues, dass nVidia am RAM spart und die Leistung über die GCA rausholt.

Ich finde es ja immer lustig, dass man da gleich Nvidia beschuldigt, wo aktuell AMD nicht eine einzige Spielerkarte mit mehr als 8GB VRAM auf dem Markt hat.

BxBender schrieb:
Wir wissen doch jetzt schon, dass 8GB RAM gerade so für WQHD ausreichen,

Wir wissen jetzt schon dass 8GB selbst für 4K mit RT ausreichen, abgesehen von einem einzigen Spiel was hier immer wieder erwähnt wurde. Da die Anzahl der Spieler die sich für 1000€+ eine Grafikkarte mit mehr VRAM zulegen, sich im einstelligen Prozentbereich bewegen wird, ändert sich daran auch in den kommenden Jahren wenig.
 
BxBender schrieb:
Sollten die Gerüchte stimmen, so werkelt NVidia schon wieder an minimalistischen aber extrem teuren Rohrkrepierern herum.
Wir wissen doch jetzt schon, dass 8GB RAM gerade so für WQHD ausreichen, aktiviert man dann auch noch Raytracing, so dürfen es schon jetzt spätestens in 4K aber auf jeden Fall schon mal mehr sein.
[ ... ]
Wenn man keine keine Tests dazu liest....
Es ist bereits bewiesen worden, welche Auflösungen wieviel RAM benötigen und was empfohlen wird, wenn man aktuelle Grafikkracher zocken möchte.
[ ... ]
Man kann bereits eine 2080 Ti in 4K mit 11GB RAM vollpumpen, während 8GB Karten, also eine 2080 ordentlich Federn lassen.
[ ... ]
Raytracing in Verbindung mit den Low-level-API's benötigt mehr Speicher als ohne.
[ ... ]
8GB sind jetzt schon zu wenig, 16GB sind Minimum für einen neuen PC. Oft genug getestet udn mit Frameverläufen und Frametimes aufgezeichnet und bewiesen.
[ ... ]

"Sollten die Gerüchte stimmen" Aha.
"Wir wissen doch jetzt schon" Woher?
"Wenn man keine keine Tests dazu liest" Welche Tests?
"Es ist bereits bewiesen worden" Wo?
"Man kann bereits eine 2080 Ti in 4K mit 11GB RAM vollpumpen, während 8GB Karten, also eine 2080 ordentlich Federn lassen" Wo kann man erkennen, dass das am VRAM liegt und nicht daran, dass die 2080 Ti einfach mehr Dampf hat? Link zum Test wäre schön.
"Raytracing in Verbindung mit den Low-level-API's benötigt mehr Speicher als ohne" Quelle?
"Oft genug getestet udn mit Frameverläufen und Frametimes aufgezeichnet und bewiesen" Und wieder: Wo?

Manchmal frage ich mich wirklich, wie man so viele Behauptungen ohne Untermauerungen aufstellen kann, ohne rot zu werden. Dabei unterstelle ich dir weder, dass du Unrecht, noch dass du Recht hast. Mich interessieren lediglich die Fakten. Denn ich glaube nicht einfach alles, was irgendwo im Internet geschrieben wird.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: milliardo und Fraggball
Dass nVidia jetzt erstmalig Intel in der Marktkapitalisierung übertrifft ist bestimmt kein Zufall (natürlich unterliegt es auch einem unbegründeten Börsenhype für einige Unternehmen wie nVidia oder Tesla) und irgendwie schon surreal, aber kein Wunder, wenn ich einige Kommentare hier lese, die deren - aus Kundensicht extrem dürftige - Preis- und Produktpolitik versuchen zu rechtfertigen.

Mir ist ein ausgeglichener Markt lieber und ich hoffe, dass eine Wende vieler hin zu AMD/RTG geben wird mit der kommenden Gaming-GPU-Generation, denn viel schlimmer als die nVidia Marktdominanz bei Grafikkarten kann das aus Verbrauchersicht kaum mehr werden.

Nun, ich möchte nicht wissen wie hoch die angestrebte nVidia Gewinnmarge bei den Ampere GPUs mit dem vergleichsweise billigen 8nm Prozess von Samsung sein wird.

Im High End mit Preisen jenseits der 1000 Euro sind es vielleicht einige 100% gemessen an den Produktionskosten die nVidia da pro Kunde absahnt trotz des spärlich verbauten Billigspeichers (selbst GDDR6X dürfte im Vergleich zu HBM2E etwa billig sein, aber letzteren verdienen die Karten eigentlich und dann gäbe es auch keine irrwitzigen Diskussionen, dass es keine passenden Speicherinterfaces für eine überfällige 16GB Bestückung bei den Ampere Topmodellen geben würde, einzig nVidia ist zu geizig/maximalprofitsüchtig).

Dass AMD/RTG in gleicher Position besser dem Kunden gegenüber handeln würde, glaube ich allerdings auch nicht, deswegen kann ein relativ ausbalancierter Markt (hinsichtlich der Marktanteile) nur im Interesse der Kunden sein sowie einer hoffentlich ebenso starken Präsenz Intels zukünftig in dem Bereich.

Hoffentlich wird sich da etwas tun und sind die RDNA2 Produkte gut/attraktiv/verfügbar genug, um die Marktanteile von AMD/RTG im Vergleich zu nVidia zu steigern (trotz des medial befeuerten nVidia Ampere Hypes, egal wegen welcher irrelavanten und spekulativen Leaks/Details) und um die Preistreiberei letzterer etwas einzudämmen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Cpt.Willard
BxBender schrieb:
Wir wissen doch jetzt schon...

Wenn man keine keine Tests dazu liest....
AYAlf schrieb:
Nur weil hier einige keine Tests lesen können..

Ist eher eine akademische Frage, mir wären 16 anstatt 8GB auf einer xx70 auch lieber (auch wenn ich ihn zahlen müsste), aber:

Ja welche Tests denn dann? Nur ein einziger Link mal von wem? Die Tests die sich explizit mit dem Thema befassen, kommen (mit wenigen Spielen als Ausnahmen unter bestimmten Einstellungen; Link oben) zum gegenteiligen Schluss und weisen darauf hin, dass sich das in Zukunft natürlich ändern könnte. Na sowas aber auch, die Zukunft kennt halt keiner.
 
  • Gefällt mir
Reaktionen: HwHaTe und Fraggball
megaapfel schrieb:
Bei der 970 und dem Speicherskandal haben damals auch viele "Experten" hier gemeint, dass ja 3.5 GB eigentlich auch dicke reichen würden. Und selbst zu dem Zeitpunkt kam man schon in GTA 5 drüber in 3 und 4k. Aber naja, ist ja nichts neues, dass nVidia am RAM spart und die Leistung über die GCA rausholt. Wäre halt gut gewesen, wenn sie wenigstens mal 10 anstatt 8GB spendiert hätten, damit man nicht wieder so schnell ans Limit kommt, denn mittlerweile dürften auch viele Spieler Auflösungen über Full HD haben, von VR ganz zu schweigen.

Hoffentlich hat die 3070 dann auch wenigstens die vollen 8GB und nicht 7,5 wie damals.
1. sind 3,5 GB was anderes als 8GB (warum wärmst Du so alte Kamellen auf? Die Geschichte hat ja schon einen Bart und ist 5 Jahre alt).
2. sehe ich bei 8GB nicht die Gefahr, dass nur 7,5GB zur Verfügung stehen
3. reichen selbst 4GB in vielen Spielen (gerade bei FHD) heute noch aus (siehe Tests der kleinen AMD/NV-Karten)
https://www.computerbase.de/2019-12/amd-radeon-rx-5500-xt-test/2/
(NV hat ein besseres Speichermanagement als AMD und selbst bei AMD ist das System nur bei 2 Spielen gebremst worden)
Klar sind 4GB nicht optimal, aber selbst die reichen in den meisten Fällen noch aus. Warum sollen 8GB dann zu wenig sein?
10GB gibt es doch. Hol dir die 3080 und dann hast Du 10GB.
 
Zurück
Oben