News GPU-Gerüchte: Hinweise auf GeForce RTX 3070 (Ti) mit GA104

@robertsonson - geht mir auch so... mal schauen, ob AMD weniger geizig beim Speicher ist. Zusätzlich hätte ich ungefähr erwartet für ~500€ die doppelte Leistung einer 1070 zu bekommen. Ob der Traum ebenfalls platzt bleibt noch abzuwarten.
 
Die RTX 3090 könnte mir gefallen bin auf den Preis gespannd.
 
die 3er serie wird meine 980ti ablösen aber auch nur wenn die neue gen. auch mit hdmi 2.1 kommt, leider habe ich mich beim monitorkauf auch an gsync gebunden, daher kommt amd aktuell auch nicht in frage.
 
@ManPon
Das macht doch nichts - die Karten sind viel länger nutzbar als zuvor. Außerdem geht nVidia vermutlich viel näher an das technische Limit bei der Chipgröße.
 
  • Gefällt mir
Reaktionen: redlabour
ManPon schrieb:
... und ich mir eine Verdoppelung der Preise. ;)

Sind die Daten der News korrekt, würden die Preise aller Unkenrufe zum Trotz aber deutlich sinken.
Die 2070 RTX hatte einen Einstands MSRP von 599$

Wenn jetzt die 3070 aber 400$ und die 3070TI 500$ kosten soll, wäre das sogar ein deutlicher Preisrückgang.
 
Wollen wir hoffen das es einen deutlichen Preisrückgang gibt. RTX war für Nvidia gefundenes Fressen die Preise hochzutreiben. Das Thema sollte also "gegessen" sein und die Preise sich normalisieren.
 
@TheGhost31.08
Wieso sollte nVidia die Preise senken? nVidia wird doch sicherlich auch Budget-Karten für 200 Euro anbieten. So wird jeder Kunde bedient. Vor allen die Chipgröße war ein Grund für die hohen Preise bei Turing.
 
TheGhost31.08 schrieb:
Wollen wir hoffen das es einen deutlichen Preisrückgang gibt. RTX war für Nvidia gefundenes Fressen die Preise hochzutreiben. Das Thema sollte also "gegessen" sein und die Preise sich normalisieren.
Das ist ja auch verständlich. Die RTX Serie war technologisch ein Sprung, wie es ihn 13 Jahre lang nicht mehr gab und eine Risikofertigung mit dem zweitgrößten Chip der Computergeschichte überhaupt.

Jetzt wird halt wahrscheinlich einfach wieder in den alten Modus umgeschalten.
Leichte Verbesserungen hier und da, aber alles einfach schneller.

Sollte ja vielen hier gerade recht kommen, wenn die Dinge schneller werden und die Preise sinken.
Man muss auch nicht in jedem Produktzyklus das Rad neu erfinden. Mit DX12Ultimate und RTRT sind die Weichen ja wieder für einen langen Zeitraum gestellt...

Ergänzung ()

Tomahawk schrieb:
Wieso sollte nVidia die Preise senken?
Weil genau das die News impliziert.
 
Die Datenkompression ist ja angeblich auch teilweise entscheidend für die Frage wie viel Ram wann zu knapp wird. (Wobei ich durch solche Techniken keine Wunder erwarte, an sich kann Ram nur durch mehr Ram ersetzt werden).

Allerdings bekomme ich persönlich auf 3440*1440 höchste Texturen selten auch nur 6 von den 8GB meiner 1080 voll. Sehr viele Spiele brauchen nicht einmal die Hälfte, also 4GB. (Ausnahme RE2, aber das scheint da normal zu sein) Sollte der Vram mal irgendwann schon vollgelaufen sein, habe ich zumindest keine sofort spürbaren Ruckler/ Frametime-Probleme gehabt.

Bei nächster Gelegenheit (3000er-Launch?) wäre das doch mal eine Gelegenheit die Sache "wissenschaftlich" unter die Lupe zu nehmen. Also unter welchen Auflösungen und Bedingungen reichen 8GB nicht mehr und ob das Spielgefühl wirklich nennenswert beeinflusst ist. Ggf. Einschätzung zur Zukunft. Vom Tellerrand her scheint mir das "Vram-Krüppel-Problem" regelmäßig als übertrieben.
 
  • Gefällt mir
Reaktionen: adAstra und pietcux
So geil wie alle auf die 3000er Serie von nvidia sind, habe ich das Gefühl dass die Preise am Ende doch nicht niedrig werden.
 
  • Gefällt mir
Reaktionen: YetiSB
robertsonson schrieb:
ich hab in meiner bald 20-jährigen grafikkarten-historie niemals zwei karten mit derselben speichergröße und immer "mittelklasse" gekauft. der speicher wurde immer mindestens verdoppelt, teils vervierfacht. und jetzt soll ich nach 4 jahren 1070 erneut 8 gig kaufen? näh. könnse behalten.

Weil der Mainstream immer noch mit 4-6 GByte rumdödelt. 8GByte sind immer noch HighEnd und alles darüber mindestens noch 2 Jahre Marketinggeblöddel. Der schnellere RAM rechtfertigt zusammen mit RTX ein Upgrade deutlich.
 
redlabour schrieb:
Das ist falsch. Die Konsolen werden VRAM lediglich mit mehr Daten belegen um ihre sonstigen Nachteile auszugleichen. Es ist überhaupt nicht nötig den VRAM mit Daten vollzuballern die zum Beispiel in Open World Szenarien meilenweit entfernt sind.
Also erstens hast du den Beitrag von @Pisaro "geschickt" überlesen, es gibt nämlich schon heute Spiele, die die 8GB ausreizen. Zudem ist dein Argument auch an sich irgendwo unsinnig, warum sollte eine PS5 den RAM mit nutzlosem Zeug voll-ballern, wenn sie doch explizit darauf ausgelegt wurde mit Low Latency auf die SSD mit Geschwindigkeiten im GB/s Bereich zuzugreifen?
 
  • Gefällt mir
Reaktionen: schneeland, bad_sign, CMDCake und eine weitere Person
Leichte Verbesserungen hier und da genau das wird auch passieren um die preiße stabiel zu halten
Der Leistungssprung wird halt nicht hoch aussfallen aber meine 2070 wird ersetzt da DSR für mich interresant ist.
 
Natürlich gibt es Spiele die 8GByte voll ausreizen. Die gleichen Spiele reizen auch 11 GByte aus mit sinnlosem Cache.
 
  • Gefällt mir
Reaktionen: ZeT
7LZ schrieb:
So geil wie alle auf die 3000er Serie von nvidia sind, habe ich das Gefühl dass die Preise am Ende doch nicht niedrig werden.

Glaube ich auch nicht, die aktuellen Karten verkaufen sich ja gut. Ich könnte mir sogar vorstellen dass die 3070 den Leistung-Platz der 2060super einnimmt aber im Preisgefüge der 2070 bleibt.
 
xxMuahdibxx schrieb:
leider sind die Preise so uninterresant geworden ... vermisse die Zeiten wo man mit 200 € eine gute Mittelklassekarte bekam und für 400 € das Topmodel...

Die Leistung ist so breit gefächert das man einfach zu viele Optionen in der Mitte hat und die Spitze echt nur für Enthusiasten da ist.

Und dann wird einem fast die gleiche Leistung wie vor 4 Jahren für fast den gleichen Preis noch verkauft.


Für Normalverdiener mittlerweile uninterressant wenn schon das Lowmodell ne Monatsmiete kostet. Finds auch unverschämt was die Preise angeht mittlerweile.
 
  • Gefällt mir
Reaktionen: edenjung, Bright0001, Fighter1993 und 7 andere
Tja.. Neuer Monitor + GPU wirds zum Ende des Jahres. Dann sieht das System bis auf SSD + Massenspeicher erstmal gut aus.

Aber ich bin höllisch gespannt warum Nvidia im Vergleich zu turing so aufs Gas tritt bei den leistungszuwächsen ;) ich warte auf jeden Fall auf beide hersteller und schaue dann was passt. Gsync am Monitor wirds trotzdem nicht. Ich halte nix von proprietären Techniken und Schnittstellen

Wie schnell das ganze wird sagen leider die ganzen Eckdaten erstmal nicht. Zu wenig ist über die Zuwächse der Leistung abseits der Tensor Cores bekannt. Bei Cuda waren es ja "nur" 30% Zuwachs beim GA100. Wie viel das aber über die geforce Modelle Aussagt.. Keine Ahnung
 
redlabour schrieb:
Natürlich gibt es Spiele die 8GByte voll ausreizen. Die gleichen Spiele reizen auch 11 GByte aus mit sinnlosem Cache.
...und man hat dir ein Beispiel geliefert, wo das eben nicht "sinnloser Cache" sondern Performance-relevante Daten sind. Ich versteh auch nicht warum du überhaupt darüber diskutierst, mehr Speicher = mehr Zukunftssicherheit, kannste drehen wie du willst.
 
  • Gefällt mir
Reaktionen: schneeland, bad_sign, Redical und 10 andere
Zurück
Oben