News Zotac: Hersteller bestätigt RTX 3070 Ti mit großem Chip auf Diät

Sas87 schrieb:
Es wird langsam ziemlich schwierig die ganzen Nvidia Moves zu verstehen, und da irgendwas zu schlussfolgern.

Klar, die 3080er und 3090er gehen nicht mehr weg wie warme Semmeln.
Aber warum der Release nur in China? o_O

Wahrscheinlich weil es nicht genug Teildefekte Chips für die ganze Welt gibt und weil ed dort den Leuten egal ist was für Chip verbaut ist und nicht rummeckern wie wo anders ;)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: JackTheRippchen
kachiri schrieb:
Die 12G waren für diese Karte eigentlich eh von Beginn an zuviel des guten...
Da bin ich sooo bei dir. Wie oft habe ich gehört dass die 3060 empfohlen wurde "weil die ausreichend VRAM hat". Wofür? Es gibt meines Wissens nach absolut kein Szenario in dem man in FHD (ja, die 3060 ist eine FHD Karte) 12GB VRAM benötigt. Und für die wo man diese Menge brauchen könnte, hat die 3060 GPU einfach nicht genug Rohpower.

Aber das Gefühl für Verhältnismäßigkeit geht bei den Kunden sowieso langsam vor die Hunde...
 
  • Gefällt mir
Reaktionen: Petoschka
Bin gespannt, was man letztendlich kaufen kann und was dabei heraus kommt, an Verbrauch, Leistung und natürlich Preis.
Beim Preis sicherlich nichts gutes (für mich).
 
Deathangel008 schrieb:
gerade bei der 3070ti ist das natürlich ganz besonders bitter, ist die version mit GA104 doch eine wahre vorzeigekarte was effizienz angeht:evillol:

scnr
Wäre sie ohne den G6X-VRAM.

Aber NV musste ja unbedingt diesen billig VRAM verbauen. Also da wäre der Samsung viel besser gewesen. 🙁
 
Die 3080 mit 10GB bleibt momentan bei 850€ kleben. Die bewegt sich keinen mm nach unten. Die 12er auch nicht.

Ich hätte ja noch eine gekauft aber net für 850€.

Und das hier zeigt ja was los ist. Und ja ein gutes Pferd springt nur so hoch wie es muss trifft es hier ganz gut.
 
  • Gefällt mir
Reaktionen: Grundgütiger und JackTheRippchen
ALLES SHEIßE WEIL: nur 8 GB VRAM!!!

Die hat meine GTX 1080 schon gehabt und langsam wurde es eng.

Da würde ich eher nach ner RTX 3060 mit 12 GB RAM gucken oder zu >AMD linsen.

Ich hab leider nen G-Sync Monitor und mußte praktisch Nvidia weiter wählen.

Außerdem hat Amd wohl nur bis DX 9 die Option über Treiber Anitrosope Filterung einzustellen.
 
Zuletzt bearbeitet:
Berlinrider schrieb:
Im Grunde könnte NV auch Restbestände der voll funktionsfähigen GA102 Chips umlabeln und als "RTX 4060" verkaufen, dann habt ihr eure neue Mittelklasse. Später dann bestückt mit dem Ausschuss der großen Lovelace Chips, entsprechend teildeaktiviert.

Nein eben nicht. RTX 4000 hat DLSS3 und das funktioniert auf den alten karten nicht weil es ihnen an bestimmten Recheneinheiten für die Zwischenbildberechnung mangelt.

Das wär ein Marketing Super-Gau.
 
  • Gefällt mir
Reaktionen: JackTheRippchen
DLSS 3 hat wohl noch Probleme und ist nicht richtig sauber. Eigentlich lohnt sich DLSS 3 wohl erst, wenn man mit normalem DLSS zumindest schon 60 fps erreicht. >(wegen Bildqualität und Reaktionszeit)
 
Das wird ja immer lächerlicher, was da abgeht. Hätte man mit den Chipresten nicht trotzdem 4000er Chips machen können? Zumindest für die unterste Klasse - eine gtx 4030 oder 4040. Ob mit oder ohne Raytracing wäre da auch egal gewesen. Hätte bei passendem Preis genügend Abnehmer gefunden.
 
Zuletzt bearbeitet:
Coeckchen schrieb:
Nein eben nicht. RTX 4000 hat DLSS3 und das funktioniert auf den alten karten nicht weil es ihnen an bestimmten Recheneinheiten für die Zwischenbildberechnung mangelt.

Das wär ein Marketing Super-Gau.

War auch nur als Beispiel gedacht...
 
Eine 3070 oder 3070Ti hat doch beim derzeitigen Preisgefüge am Markt keine Existenzberechtigung. Da wischen die herabgesetzten 6800XT doch den Boden mit denen.
 
  • Gefällt mir
Reaktionen: JackTheRippchen
Das nVidia-Lineup wird halt immer verkorkster. :freak:
Man hätte gleich folgende VRAM-Ausstattung bei der 3000er-Serie bringen sollen, dann wäre viele (ja, nicht alle) zufrieden(er):
  • RTX 3090 (Ti): 24 GiB
  • RTX 3080 (Ti): 20 GiB
  • RTX 3070 (Ti): 16 GiB
  • RTX 3060 (Ti): 12 GiB
  • RTX 3050: 8 GiB
Vor allem die RTX 3070 (Ti) ist und bleibt der absolute Witz der 3000er-Serie.

Und wer behauptet, dass 8 GiB aktuell "in den meisten Fällen" ausreichend sind, mag aktuell noch recht haben. Das beste Gegenargument hat meine Frau mit der GTX 770 4 GiB im Rechner. Die standardmäßigen 2 GiB der GTX 770 waren zum Erscheinungszeitpunkt auch ausreichend, aber nicht viel später schon ziemlich unbrauchbar. Mit der 4 GiB-Variante konnte meine Frau die Tomb Raider-Reboot-Trilogie noch mit 40+ FPS/1200p problemlos und schön anzusehen spielen, mit der Speicherkrüppel-Standard-Variante wäre dies nicht möglich gewesen.
 
kachiri schrieb:
Das verkleinerte SI ist da letztlich auch kein Problem, weil der Speicher genauso schnell läuft, wie auf der 12G-Variante... Es fallen halt die 64 Bit der weggefallenen 4 GB VRAM weg.
Das stimmt eben leider nicht. Die Bandbreite sinkt dadurch. Diese ergibt sich aus Busbreite und Speichertakt. Ich vermute mal, dass sich das in FHD noch nicht so sehr bemerkbar machen wird, aber dann in WQHD. Ist technisch durchaus in Ordnung, aber das Preisschild sollte dementsprechend angepasst sein und eine 3050ti hätte vom Namen besser gepasst.

Der 3070ti hätte man am größeren Chip auch mal 12GB spendieren können und ein zumindest ein paar Recheneinheiten. Daher schade, dass der Leaker da komplett richtig lag, das einzige kleine Upgrade gabs dann aber nur für die 3060ti und die Lücke zwischen neuer 3060 und 3060ti ist vergleichsweise riesig.
 
Poati schrieb:
und eine 3050ti hätte vom Namen besser gepasst.
Wieso hätte 3050 Ti besser gepasst? Das ist exakt derselbe Chip ohne Beschneidung wie bei der 3060 12G. Der Unterschied ist der VRAM und eben die passende Beschneidung des SI.
Die Speicherbandbreite dürfte sich in FHD kaum bemerkbar machen. In WQHD sieht das sicher was anders aus: Aber Fakt ist halt auch, mit einem 192-Bit-Interface wäre die 8G-Karte auch nicht schneller.

Die Alternative wären halt die 6G gewesen. Da ist halt die Frage, was ist besser: 6G an 192-Bit oder 8G an 128-Bit ;)

Zumal die 3050 halt auch mit 8G an 128 kommt. Da eine 3060 6G zwischenzuschieben mit 192-Bit wäre auch Quark. Am Ende ist die Bezeichnung doch auch egal. Solange der Speicher nicht limitiert, dürfte die Leistung relativ identisch zur 3060 mit 12G sein... Wenn man nicht gerade in WQHD mit hohen Detailgraden unterwegs ist (was mit der 3060 auch mit 12G schon eine Herausforderung ist...)
 
Professionalisierung der Resteverwertung der noch vorhandenen Chips..nich mehr oder weniger.. nur ma schauen was das Ding kosten soll.

Katzenjoghurt schrieb:
Der Gamer kriegt wohl noch ‘ne Weile Ampère… die 4090 ist erst mal Reviermarkierung und die wenigen verfügbaren Karten werden zum gehobenen Preis an gelangweilte Enthusiasten verkauft.
Genau auf den Punkt gebracht! Und AMD wird wohl genau dasselbe machen.
 
Solange die Preise weiterhin so hoch bleiben, interessiert mich das herzlich wenig. Nvidia will Resteverwertung zu den derzeitigen hohen Neupreisen. Wer da zugreift ist selber schuld.
 
Hätte eine 3075(TI) sein können mit gleicher Leistung wie 3070TI oder mittig zwischen dieser und 3080, dafür aber mit 10GB in beiden Fällen. Und vorallem 1 Jahr früher.
 
Zurück
Oben