Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsNvidia GeForce RTX 4070 Ti: Comeback der GeForce RTX 4080 12 GB im Januar 2023
Andererseits wird meine Vega 56 wird nun langsam wirklich "lahm" (bzw. ich will zumindest mal stabil - ja richtig: gelesen - 60 FPS mit "kompromisslos" hohen Settings in Witcher 3).
Dreimal war die 6800XT in den vergangenen zwei Wochen nun schon im Warenkorb. Wenn nun aber das Next Gen Upgrade mit so "rischdisch" viel RT kämte, würde ich das schon auch in dieser vollen Pracht genießen wollen.
Das wird noch sehr, sehr lange dauern bis da mal der "Rest" kommt. Bei der Vorstellung der RTX 4000er Serie hat nVidia eine eindeutige Folie vorgelegt, wo RTX 4090 und RTX 4080 (damals noch 16GB und 12GB) oben als Premiumsegment stehen und darunter die RTX 3080, 3070 und 3060.
Es wird unterhalb der RTX 4090, 4080 und jetzt 4070Ti bis auf Weiteres keinerlei neue Karten geben, weil erst mal die Bestände (Berge) der RTX 3000er Serie abgetragen werden müssen und bei der stark eingebrochenen Nachfrage nach Computer-Hardware dürfte dies nun noch mal wesentlich länger dauern als nVidia und die Boardpartner dies ursprünglich erwartet hatten.
Auch bei AMD gab es ja keinerlei Bemerkungen zur Mittelklasse. Da wird die RX 6000er Serie mutmaßlich auch noch lange weiter existieren, weil die Lager noch voll sind.
Es würde mich nicht wundern, wenn RTX 4070/4060 usw. sogar erst nächstes Jahr im Herbst oder zum Weihnachtsgeschäft kommen... oder gar nicht... und es in knapp zwei Jahren per full reset mit der RTX 5000er Serie weitergeht.
Schauen wir mal wie schnell oder wie langsam sich die Lager leeren...
Nie im Leben ist die 4070Ti 1300€ Wert Wenn ich ehrlich bin dürfte HOCHSTENS 599€ kosten. Mein nächste Karte wird eine AMD Graka sein! Die einzige weg Nvidia zum Vernunft zu bringen wenn keine ihre Karten mehr kaufen!
Ich finde die ganze Diskussion hier geil.
Jeder 2. haut hier statements raus wie "die Karte hat soviel Leistung" ... "die hat ~40% im Raster mehr" ... "der Gap ist ja viel zu groß zwischen x und y" ...
Ich vermisse anscheinend meine Glaskugel, denn ich kenn lediglich verifizierte Benchmarks der RTX4090.
Weder von RX7900XT noch von RX7900XTX noch von RTX4080 noch von RTX4070ti...
Also, könnt ihr mich mal aufschlauen ob ich die ganzen Benchmarks verpasst habe, oder macht ihr reine Stats Vergleich die genau 0 Aussagekraft haben weil kein Mensch weiß wie sich das dann wirklich in Spielen auswirkt? (und so ziemlich nichts anderes zählt...)
Andererseits wird meine Vega 56 wird nun langsam wirklich "lahm" (bzw. ich will zumindest mal stabil - ja richtig: gelesen - 60 FPS mit "kompromisslos" hohen Settings in Witcher 3).
Geht mir mit meiner 1070 ähnlich (damals für 285,- im Abverkauf bei Einführung der 2000er). Bei nVidia war der sparsame VRAM der 3000er leider ein Spielverderber. Bin nicht bereit 700,- aufwärts für (fast) die selbe Menge zu bezahlen. Echt ein Dilemma!
Die brauchen das aber, damit die nach unten noch Spielraum haben, denn nach oben ist ja schon zu und dort muss ja noch eine 4080TI rein.
Passt schon so.
Interessant. In meiner Realität klingt das nach Irrsinn. Wenn die Argumente bezüglich gestiegener Leistung, die bezahlt werden muß gültig wären, hätte schon die 1070 soviel kosten müssen und die 4070 2000,-.
das sind alles consumer karten, sonst wären sie nicht auf dem offenen markt erwerbbar.
aber 4k fähigkeit bei bestimten fps als neues feature ist lustigt...damals bei fhd auflösung und später bei wqhd hat man das bei den karten nicht gleich als neues feature angesehen..
Vor allem schau ma mal in 2 oder 3 Jahren ob dann noch alles in UHD/120 läuft.
Bisserl naiv zu glauben das künftige Spiele die Leistung nicht nutzen werden.
Ich vermisse anscheinend meine Glaskugel, denn ich kenn lediglich verifizierte Benchmarks der RTX4090.
Weder von RX7900XT noch von RX7900XTX noch von RTX4080 noch von RTX4070ti...
Ich würde sagen das stimmt so nicht, bezogen auf die 4080 und 4070ti. Nimm die Nvidia Benchmarks und setzt die 4090 als 100% und nimm die Prozentuale Differenz zur 4080 16gb und 4080 12gb. Wenn du die Differenz hast, nimm den Computerbase Test der 4090, setze die 4090 auf 100% und rechne die Differenz die du vorher ausgerechnet hast und ziehe sie ab. Ergebnis: ziemlich genaue Angaben wo die 4080 und 4070ti stehen sollten.
Die sollen da lieber mal ne 4070 draus machen und ne 4070 Ti eher mit abgespeckten AD103 bei 14GB 226Bit SI bringen. Wäre dann sinnvoller zwischen 4070 und 4080.
Irgendwie nicht verständlich wie die Hersteller ihre Produkte auswürfeln, wie die ehemals 4080 12GB kommt eigentlich kein normaler Mensch drauf, bei ner 4080 16GB mit völlig anderer Chip Konfig 🤷♂️
Und ist auch immer eine Frage, wie wichtig einem die Features sind bzw. ob man die überhaupt braucht. Die Raytracing-Performance ist ja nur interessant, wenn man überhaupt entsprechende Spiele zockt (und dort auch Raytracing einschaltet). Und sowas wie Nvidia Reflex ist auch weitestgehend uninteressant, wenn man keine Multiplayer-Shooter spielt.
Die Mittel sind nicht mein "Problem", sondern Du weißt schon.
Wir können uns natürlich auch einen argumentativen Ruck geben:
wir beide haben "verdammt lang" gewartet (noch nachvollziehbar)
wenn ich an die ganze Geldverschwendung in meinen jüngeren Jahren denke, als ich Bier primär von der Tanke bezog (hanebüchen, könnte aber dennoch funktionieren)
Ohne Humor geht das bei mir nicht.
Nächste Woche kommt der nächste Test. Dann nochmal weitere 4 Wochen warten, und es liegen alle relevanten Preis/Leistungsinformationen vor. Und dann schaue ich mal.