News GeForce RTX 4060 Ti 16 GB: Tests zum Start am 18. Juli sind sehr unwahrscheinlich

franzerich schrieb:
Nunja, es ist ein 107er Chip. Der war wurde schon seit der 1000er Reihe immer nur für die xx50 Reihe verwendet. Also da das Line-Up wurde wirklich nach unten verschoben bei Nvidia.
Nein die 4060ti hat den 106er Chip.
 
Fallout667 schrieb:
Erst als sich die Community aufgeregt hat weil 8GB zu wenig sind haben sie verdoppelt. Und jetzt meckert die Community das 16Gb sinnlos sind.
Wenn man Dinge derart stark vereinfacht, klingen sie natürlich immer albern. :rolleyes:

Tatsache ist, dass 16 GB für eine solche Karte dezent überdimensioniert sind, weil der Mehrwert gegenüber 12 GB bei einer Karte dieser Leistungsklasse extrem übersichtlich ausfällt. Tatsache ist auch, dass das natürlich niemanden stören würde, wenn dieser zusätzliche Speicher nix kosten würde. Das tut er aber, und führt dabei die Karte in Preisregionen, die für ein 60er-Modell vollkommen absurd sind.
 
Fallout667 schrieb:
Fakt ist, der eigentliche Nvidia Vorteil der besseren RT Leistung hat die 4060 nunmal nicht. Wer es günstiger will bei gleicher Ausstattung nimmt halt die 6650XT oder 7600. Dem Rest deine Aussage stimme ich zu. Bis auf das die 6700XT zu teuer ist für ihren derzeitigen Preispunkt.
 
Zuletzt bearbeitet von einem Moderator:
Fallout667 schrieb:
Nein die 4060ti hat den 106er Chip.
Stimmt. Das ist mir durch die Lappen gegangen, dass von der non-Ti zur Ti ein anderer Chip genommen wurde. Da blickt ja keiner mehr durch...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Fallout667
shaboo schrieb:
Wenn man Dinge derart stark vereinfacht, klingen sie natürlich immer albern. :rolleyes:

Tatsache ist, dass 16 GB für eine solche Karte dezent überdimensioniert sind, weil der Mehrwert gegenüber 12 GB bei einer Karte dieser Leistungsklasse extrem übersichtlich ausfällt. Tatsache ist auch, dass das natürlich niemanden stören würde, wenn dieser zusätzliche Speicher nix kosten würde. Das tut er aber, und führt dabei die Karte in Preisregionen, die für ein 60er-Modell vollkommen absurd sind.
Ja dann sollen sich die Leute halt über den Preis aufregen, das ist ja ok.
Hier hängen sich aber jede Menge Leute an technischen Details auf die ja angeblich so schlimm sind.

Und albern klingt es nicht nur es ist albern. Die einzige Möglichkeit für Nvidia nicht 16GB sondern die gewünschten 12GB zu verbauen wäre ein neuer Chip mit neuem Interface gewesen. Da das nicht wirklich möglich war haben sie halt 16GB genommen.
Das was die Community eigentlich will ist eine komplett neue 4000er Serie mit den technischen Specs die sie für angemessen halten. Bloß wird das nie passieren. Jetzt sind alle sauer und kommen mit einem dämlichen Argument nach dem anderen warum Nvidia scheiße ist. Anfangs konnte man das ja noch nachvollziehen, aber mittlerweile ist das ganze Gejammer nur noch lächerlich und nervig.
Man kann keine News mehr lesen in der nicht zu 90% nur noch gegen die Hersteller gehetzt wird. Auf einem Technikforum mit Enthusiasten hätte ich was anderes erwartet. Das hier ist nur noch Stammtisch Gegröle.
 
Fallout667 schrieb:
Ja und erste Tests haben eben gezeigt das das Interface nicht zu langsam ist. Und jetzt?
Bei Auflösungen größer Full HD sinkt der Abstand zur 3060 ti bzw. der Abstand zur 3070 vergrößert sich. Das zeigt doch auch der Test hier auf CB.
 
Taurus104 schrieb:
Dann einfach mal PCGH und GN und HardwareUnboxed zur 4060 genießen. Fakt ist, der eigentliche Nvidia Vorteil der besseren RT Leistung hat die 4060 nunmal nicht. Wer es günstiger will bei gleicher Ausstattung nimmt halt die 6650XT oder 7600. Dem Rest deine Aussage stimme ich zu. Bis auf das die 6700XT zu teuer ist für ihren derzeitigen Preispunkt.
Also ich habe mir die RT Benches angesehen und auch bei PCGHW ist die 4060, bis auf ein Game wo sie 3% langsamer ist, immer mindestens 5 -25% schneller als die 6700XT. Bei GN ebenso. Ich weiß ja nicht welche Test du gelesen hast. Aber zu behaupten die 6700XT wäre in RT schneller als die 4060 ist halt einfach nicht wahr.
Ergänzung ()

Fenkel schrieb:
Bei Auflösungen größer Full HD sinkt der Abstand zur 3060 ti bzw. der Abstand zur 3070 vergrößert sich. Das zeigt doch auch der Test hier auf CB.
Wo wurde denn hier die 16GB Version getestet? Es wurde nur im 8GB Test darauf hingewiesen dass das kleine Interface bei VRAM Mangel zum Problem wird. Der Test zeigt halt eben nur das es bei 8GB im VRAM Mangel Szenario zu langsam ist. Die Karten mit dem größeren Interface Laden ihre Daten halt dann noch was schneller und trotz der 8GB auf diesen Karten kommen sie damit dank des größeren Interface besser zurecht.
Zu langsam wäre es wenn es die 16GB nicht schnell genug voll bekommt und es deswegen ruckelt, das tut es aber in ersten Tests nicht.
Das von dir angesprochene Problem würde hier auftreten wenn die 16GB der 4060ti voll sind. Dann wäre eine vergleichbare Karte mit größerem Interface wieder im Vorteil.
 
Zuletzt bearbeitet:
Fallout667 schrieb:
Also ich habe mir die RT Benches angesehen und auch bei PCGHW ist die 4060, bis auf ein Game wo sie 3% langsamer ist, immer mindestens 5 -25% schneller als die 6700XT. Bei GN ebenso. Ich weiß ja nicht welche Test du gelesen hast. Aber zu behaupten die 6700XT wäre in RT schneller als die 4060 ist halt einfach nicht wahr.
Es waren mehrere Games und auch mehr als 3 Prozent wo die 4060 Spieleabhängig hinten lag mit RT. Genauso lag sie in keinem Titel 25% vorne. Man sollte also nicht nur das sehen was man möchte.
Ergänzung ()

Hardware Unboxed hat die 4060 Ti 16GB getestet.
 

Anhänge

  • Screenshot_2023-07-21-14-03-51-968_com.google.android.youtube.jpg
    Screenshot_2023-07-21-14-03-51-968_com.google.android.youtube.jpg
    485,4 KB · Aufrufe: 119
  • Screenshot_2023-07-21-14-03-44-621_com.google.android.youtube.jpg
    Screenshot_2023-07-21-14-03-44-621_com.google.android.youtube.jpg
    503,8 KB · Aufrufe: 123
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: FrankN84, OliMz1990, Denniss und eine weitere Person
Taurus104 schrieb:
Es waren mehrere Games und auch mehr als 3 Prozent wo die 4060 Spieleabhängig hinten lag mit RT. Genauso lag sie in keinem Titel 25% vorne. Man sollte also nicht nur das sehen was man möchte.
https://www.pcgameshardware.de/Gefo...4060-Preis-Release-Benchmarks-Test-1422644/4/

Sorry, im ersten Test sind es direkt +47%, wie konnte ich nur.
Bei DOOM sind es +13%
Bei Dying Light sind es +28%
Bei F1 sind es +3%
Bei Far Cry 6 -1%
Bei Ghostwire Tokyo +21%
Bei GoG +27%
Bei Lego Builder +35%
Bei Metro Exodus -2%
Bei Riftbreaker +28%

Muss dich leider enttäuschen, die 4060 lag sogar nur 2% dahinter (nicht 3%) und in allen anderen Titeln sind es sogar bis zu 47%, klar alles mit FSR gemessen. Aber auch im reinen RT Rating ist die 4060 noch 7% vor der 6700XT.

Also ich frage dich nochmal, welche Test hast du gelesen? Sorry das ich nur gesehen habe was was ich will, die RT Leistung der 4060 ist ja noch besser als ich dachte.
Und die 6700XT ist immer noch nicht schneller in RT als die 4060.

Und mit den Tests bei Hardware Unboxed scheint was nicht zu stimmen. Das ist die 4060 in 1440p schneller bis gleich schnell als die 6700XT und unter 1080p stürzt die 4060 dann komplett ab. Das ist total unlogisch. Entweder die Leistung bleibt über die verschiedenen Auflösungen ähnlich oder wenn dann sollte sie eben bei höheren Auflösungen schlechter werden, da hier das kleine Interface beschränkt. Aber doch nicht bei 1080p.
Mal ganz davon abgesehen ist das der einzige Test mit so komischen Werten. Da hat Hardware Unboxed wohl einen Fehler im Test.
 
Zuletzt bearbeitet:
Taurus104 schrieb:
Es waren mehrere Games und auch mehr als 3 Prozent wo die 4060 Spieleabhängig hinten lag mit RT. Genauso lag sie in keinem Titel 25% vorne. Man sollte also nicht nur das sehen was man möchte.
Ergänzung ()

Hardware Unboxed hat die 4060 Ti 16GB getestet.
Dass die Unterschiede nicht so weit auseinandergehen bei den beiden ausgewählten Auflösung ist jetzt kein Zufall. Ab 4K wird man große Unterschiede zu beiden Karten sehen, denke da so an 10FPS unterschied.
Jetzt frage ich mich, wer sich die kaufen will, wenn man einen 4K monitor sein Eigen nennt.
Ok, man kann etwas mit DLSS nachhelfen FG gibts auch könnte hinhauen, muss es aber nicht.
Persönlich würde da die 8 GB Version vorziehen, wenn ich kein 4K monitor habe.
Und wenn man einen 4K hat, kauft man sich was Gescheides und spart halt etwas.
 
  • Gefällt mir
Reaktionen: conglom-o und HierGibtsNichts
Fallout667 schrieb:
Ja dann sollen sich die Leute halt über den Preis aufregen, das ist ja ok.
Hier hängen sich aber jede Menge Leute an technischen Details auf die ja angeblich so schlimm sind.
Selbst wenn die Preise sinken, sind RTX 4060 /Ti und RX 7600 keine Empfehlung wert.
Abstriche bei Speicher-Interface, Speicheranbindung, Stromversorgung und bis auf die 4060 Ti 16GB auch die Speichermenge sind der schnelleren geplanten Obsoleszenz geschuldet.

Bei Nvidia bleibt nur noch DLSS3 und FG auf der Habenseite, was aber auch schon widerlegt wurde, da die
Hardware beides ausbremst.
Im Falle der RTX 4060 (etwas weniger deutlich RTX 4060 Ti) hat sich Nvidia mit der PCI-E-x8-Anbindung obendrein ein wenig in den eigenen Fuß geschossen. Die Frame Generation ist wohl DAS Feature, welches die gesamte RTX-4000er-Reihe zu etwas Besonderem, Interessantem und in vielen Fällen Nützlichem macht. Und gerade für Besitzer älterer Systeme, die außerdem noch eine bereits betagte CPU nutzen und weiternutzen möchten, wäre die Frame Generation eventuell eine kleine Offenbarung gewesen - denn, wie etwa hier dokumentiert, DLSS 3.0 kann auch im CPU-Limit die Bildraten erhöhen. Aber eher schlecht, wenn Speicher und Bandbreite bereits ein kritisches Nadelöhr darstellen. Als DLSS-3.0-Grafikkarte ist die RTX 4060 eine Enttäuschung.
Quelle:
PCGH

Für Full HD-Spieler bieten RTX 3060 Ti, RTX 3070 (gebraucht) und RX 67x0 XT das bessere Paket!

Fallout667 schrieb:
Das was die Community eigentlich will ist eine komplett neue 4000er Serie mit den technischen Specs die sie für angemessen halten. Bloß wird das nie passieren.
Die Hauptkritik bezieht sich auf die RTX 4060/Ti, deswegen verkaufen die sich auch nicht so gut wie die 4090/4070. Die RTX 4080 ist jetzt auch nicht das Verkaufswunder.

Einfach im Regal liegen lassen und auf die Super-Versionen warten, so einfach kann es sein.

Warum wollen hier ständig Leute mit der RTX 4090 in der Signatur den Full HD-Spielern erzählen, welche Kröten sie zu schlucken haben?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: LamaMitHut, FrankN84, HaRdWar§FreSseR und 2 andere
Fallout667 schrieb:
Komplett vernichtet, noch mehr übertreiben konntest du nicht oder?
Die 6800XT kostet grad 30-40 Euro weniger ist aber ca. 20-30% schneller als die 16gb 4060, und ich rede von Neupreisen, Gebraucht findest die 6800 (xt) nochmal deutlich billiger. Ich hab noch keine Benchmarks gesehen auf höheren Auflösungen oder RT / Upscaling, aber ich wette das der Abstand noch groesser wird oder mit RT die 4060 16gb nicht an der 6800 XT vorbei ziehen wird, weil da der 128bit extra Lahm Speicher zu viel bremst.

Wenn das nicht vernichtet ist? Und du willst mir doch nicht ernsthaft sagen das die 4700 ti ne bessere Grafikkarte wie die 7900 XT ist die dazu noch billiger ist.

Da die meisten Spiele nicht mal RT haben und oft man besser faehrt mit hoeher Aufloesung bei allem unter der 4090 letztendlich um mehr FPS Aufloesung zu haben, ist RT ein Gimmick und offensichtlich nicht so wichtig wie Rasterleistung.

Das Paradebeispiel ist immer Cyberpunk 2077 für RT und da packt auf 1440p die 4070 ti nur 35FPS min und 40fps AVG, da schalten die meisten RT ab. Aber selbst mit DLSS schafft die 4070 ti keine stabilen 60fps bei Ghostwire Tokyo und Dying Light 2, und der Test ist von Januar oder das Update:
https://www.computerbase.de/2023-01...chmarks_mit_und_ohne_raytracing_in_3840__2160
Und da fehlen noch Titel wie Hogwards Legacy die deutlich besser bei AMD laufen, bzw sind nur die FPS nicht ob Texturen geladen werden dazu:

Erst ab 16 GB ist man wirklich sorgenfrei​

So hat die GeForce RTX 4070 Ti zum Beispiel in Ultra HD und DLSS Quality bei ansonsten voller Grafikqualität zwar keine Performance-Probleme, aber bei manchen Objekten werden die Texturen nicht geladen, andere verschwinden kurzfristig völlig, da die Engine vermutlich versucht, die Situation irgendwie noch zu retten. Ohne Raytracing klappt es auch mit 12 GB.

Vereinzelt versagt die 4070ti also schon gegen die 7900xt in Raytracing.
https://www.computerbase.de/2023-02...itt_erst_ab_16_gb_ist_man_wirklich_sorgenfrei

Kannst davon aus gehen das in nem halben Jahr die Hälfte der Games solche Probleme haben werden.

Aber selbst wenn ich dir den mini Vorsprung bei RT mit 2 zu gedrückten Augen gebe, who gives a shit, die meisten Games haben kein RT oder nur leichtes RT paar Schatten damit ist das ne Spielerei.
Und ja FSR 3.0 kommt auch irgendwann noch, ja sie zögern es unangenehm lange raus aber es wird kommen, was kommt bei Nvidia nichts mehr was die rettet nur Spiele die noch mehr VRAM brauchen und wie hier schon demonstriert gerade mit RT auch an 12GB zunehmend verhungern werden.

Ich mein give me a Break, ne 20GB Karte für 805 Euro von AMD vs eine mit 12GB 4070ti von Nvidia die Frage stellt sich doch gar nicht, und irgendwelche Spiele gibts bei AMD auch noch zu oben drauf.

Wenn wir schon auf Spielereien wie RT schauen können wir auch Texturepacks ins Auge nehmen wo es auch welche gibt die 16gb VRAM brauchen (nicht das wie oben beschrieben nicht einfach vanilla Games teils schon 12gb mit RT nimmer reichen).
https://www.neogaf.com/threads/fallout-new-vegas-gets-a-16gb-upscaled-4x-hd-texture-pack.1564507/

Also die 7900xt wird massiv besser altern und auch heute rennst schon in weniger Probleme rein.

Aber ja die groesste Vernichtung ist die 4060 ti 16gb, da ist ja komplett Land unter RT kannst mit der Karte eh vergessen.

Fallout667 schrieb:
Und wieso Betrug? Weil du als Expert, wie viele andere hier auch, einfach entscheidest das es eine 4050 ist?
Es geht um Preise und Leistung, es geht nicht um irgendwelche "wir haben den Chip so geplant zu nennen und haben den umbenannt" es geht darum was man heute von solchem Chip / Ram setup erwarten koennte... und die 4090 hat nen deutlich groesseren Abstand zur 3090 als die 4060 zur 3060. Darum gehts. Man hat gewisse erwartungen an ne neue Generation die halt mehr als lächerliche minimale Verbesserungen in manchen cherry picked Szenarien ist. Es geht nicht um den 4060 Namen es geht um den 4060 Preis fuer extrem wenig Mehrleistung.

Fallout667 schrieb:
Wenn das ein 4050 ist dann zeig mir die gesetzlichen Vorgaben laut denen das eine 4050 ist.
Hab doch legalen (quasi) Betrug gesagt... das impliziert doch das es keine solchen Gesetze gibt? Textverständnis?
Fallout667 schrieb:
Natürlich ist die 4000er und auch die 7000er Gen nicht das gelbe vom Ei. Alle hatten mehr erwartet und zumindest auf bessere Preise gehofft. Aber dieses echt üble gehate hier die ganze Zeit ist mittlerweile nur noch nervtötend. Hier wird nur noch Gift und Galle versprüht.
Naja du kannst über die Chips sagen was du willst aber AMD bietet 20gb für den Preis wo Nvidia 12 bietet und wenn wir die 6xxx gen dazu denken bietet AMD für 320 Euro 12gb mit der RX 6700 die nur leicht langsamer ist wie die 4060 ti 16gb für 550 Euro. Oder für ungefähr den gleichen Preis ne 4060 8gb die aber komplett zersägt wird und oft in Ram Probleme rein läuft und eh viel zu lahm ist um irgendwie RT sinnvoll zu benutzen.
Ergänzung ()

Fallout667 schrieb:
Man kann keine News mehr lesen in der nicht zu 90% nur noch gegen die Hersteller gehetzt wird.
Wenn Nvidia die User verachtet und sie links liegen lässt und mit überteuertem Abfall abspeisen will ist es doch Genugtuung immer wieder Hass gegen sie zu sehen. Es kommt so zurück wie man in den Wald schreit.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Aquilid, LamaMitHut, Fenkel und 2 andere
Fallout667 schrieb:
https://www.pcgameshardware.de/Gefo...4060-Preis-Release-Benchmarks-Test-1422644/4/

Bei DOOM sind es +13%
Bei Dying Light sind es +28%
Bei F1 sind es +3%
Bei Far Cry 6 -1%
Bei Ghostwire Tokyo +21%
Bei GoG +27%
Bei Lego Builder +35%
Bei Metro Exodus -2%
Bei Riftbreaker +28%
Okay. xD

"RT inkl DLSS3"

Bzw. mit Upscaling via FSR.

Ohne Worte.

"Je nach Spiel liegt die Raytracing-Leistung auf dem Niveau einer Radeon RX 6700 XT..."
"RTX 4060, RX 6750 XT und A770 16GB bewegen sich auf dem gleichen Leistungsniveau, wobei auch hier gilt: Je weniger Pixel, desto besser die Geforce RTX 4060."
Ergänzung ()

Fallout667 schrieb:
Und mit den Tests bei Hardware Unboxed scheint was nicht zu stimmen.
Mal ganz davon abgesehen ist das der einzige Test mit so komischen Werten. Da hat Hardware Unboxed wohl einen Fehler im Test.
Natürlich. Passt was nicht in die eigene Argumentation hat ein Profi Tester einen Fehler gemacht oder "etwas stimmt nicht".
 

Anhänge

  • IMG_20230721_155606.jpg
    IMG_20230721_155606.jpg
    36,7 KB · Aufrufe: 77
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Fenkel und HaRdWar§FreSseR
Gehts um die 4060 die laut PCGH eine richtig schlechte Karte für DLSS3 (aka FG) ist?
 
  • Gefällt mir
Reaktionen: HaRdWar§FreSseR
blackiwid schrieb:
Hab doch legalen (quasi) Betrug gesagt... das impliziert doch das es keine solchen Gesetze gibt? Textverständnis?
Es gibt keinen legalen Betrug, das ist widersinnig. Das hat nichts mit Textverständnis zu tun, du schreibst einfach nur Müll. Es ist also kein Betrug. Und da es legal ist gibt es nur Leute die sich ordentlich informiert haben und welche die es nicht getan haben.
blackiwid schrieb:
Naja du kannst über die Chips sagen was du willst aber AMD bietet 20gb für den Preis wo Nvidia 12 bietet und wenn wir die 6xxx gen dazu denken bietet AMD für 320 Euro 12gb mit der RX 6700 die nur leicht langsamer ist wie die 4700 ti 16gb für 550 Euro. Oder für ungefähr den gleichen Preis ne 4060 8gb die aber komplett zersägt wird und oft in Ram Probleme rein läuft und eh viel zu lahm ist um irgendwie RT sinnvoll zu benutzen.
Die 3060 bietet 12GB schon für 279€ und ist nicht viel langsamer wie die 6700XT, dann ist die 6700XT ja komplett vernichtet von Nvidia....
Dann vergleichst du eine 6800XT mit der 4060ti, eine Karte zwei Klassen höher und im Abverkauf, toll. Das die besser ist ist nicht schwer.
Die 4090 ist auch ein ganzes Stück besser als die 7900XT, hat mehr Speicher und verbraucht weniger. Da ist die 7900XT ja vollkommen vernichtet....

Es bestreitet hier niemand das AMD in vielen Bereichen besser ist als Nvidia, aber diese Rhetorik von wegen vernichten und Boden wischen ist einfach nur lächerlich. So viel besser sind die AMDs eben nicht und im Vergleich mit der 6000er Reihe ist die 7000er eine komplette Enttäuschung genauso wie Nvidias 4000er. Fast keine Leistungssteigerung zum Vorgänger, viel zu hoher Stromverbrauch, RT Leistung immer noch nicht der Bringer und auch alle viel zu teuer. Die 7600 mit 8GB ist einfach nur Müll, das sie dann billiger ist als die 4060 macht es nicht besser, Müll bleibt Müll. Also ich sehe hier kein vernichten, lediglich ein "wir sind nicht ganz so scheiße" wie Nvidia.
Das FSR noch kommt und dann auch für alte Karten wage ich mittlerweile ganz stark zu bezweifeln. Die bekommen es einfach nicht gebacken.
Mit Ruhm hat sich AMD dieses mal auch nicht bekleckert.
blackiwid schrieb:
Das Paradebeispiel ist immer Cyberpunk 2077 für RT und da packt auf 1440p die 4070 ti nur 35FPS min und 40fps AVG, da schalten die meisten RT ab. Aber selbst mit DLSS schafft die 4070 ti keine stabilen 60fps bei Ghostwire Tokyo und Dying Light 2, und der Test ist von Januar oder das Update:
https://www.computerbase.de/2023-01...chmarks_mit_und_ohne_raytracing_in_3840__2160
Und da fehlen noch Titel wie Hogwards Legacy die deutlich besser bei AMD laufen, bzw sind nur die FPS nicht ob Texturen geladen werden dazu:

Ja toll und in dem Game ist die 7900XT die ja ach so viel besser ist als die 4070ti mal eben 25% langsamer, bzw die 4070ti 35% schneller. Und in DL2 und GW:T schafft die 7900XT es auch nicht auf stabile 60fps. Und nun?
Hier hab ich Quatsch geschrieben: Die 7900XT ist im Raster natürlich schneller als die 4070ti (Die 7900XT ist halt im Vorteil wenn mehr als 12GB RAM benötigt werden, sonst ist sie so gut wie immer schlechter als die 4070ti.)
Und die meisten Leute die sich eine 4070ti gekauft haben nutzen die Karte für WQHD und da reichen die 12GB bis auf ein zwei Ausnahmen auch immer. Und selbst wenn stellt man die Regler halt was runter.
Das die 7900XT die 4070ti vernichtet sehe ich immer noch nicht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: OliMz1990
HaRdWar§FreSseR schrieb:
Persönlich würde da die 8 GB Version vorziehen, wenn ich kein 4K monitor habe.
Auch dann nicht - dann nimmt man eine 3060 12GB (statt der 4060) oder eine 3060 Ti (statt der4060 Ti 8 GB). Gleiche Leistung für (erheblich) weniger Geld.
 
  • Gefällt mir
Reaktionen: HaRdWar§FreSseR
conglom-o schrieb:
Auch dann nicht - dann nimmt man eine 3060 12GB oder eine 3060 Ti. Gleiche Leistung für (erheblich) weniger Geld.
Ja, so sehe ich das auch, aber wenn man unbedingt FG haben will, kann man ruhig zu 8 GB karte greifen.

lg
 
  • Gefällt mir
Reaktionen: conglom-o
Taurus104 schrieb:
Okay. xD

"RT inkl DLSS3"

Bzw. mit Upscaling via FSR.

Ohne Worte.

"Je nach Spiel liegt die Raytracing-Leistung auf dem Niveau einer Radeon RX 6700 XT..."
"RTX 4060, RX 6750 XT und A770 16GB bewegen sich auf dem gleichen Leistungsniveau, wobei auch hier gilt: Je weniger Pixel, desto besser die Geforce RTX 4060."
Ergänzung ()


Natürlich. Passt was nicht in die eigene Argumentation hat ein Profi Tester einen Fehler gemacht oder "etwas stimmt nicht".
Ja und? Die AMD Karte wurde genauso mit Upscaling via FSR gemessen wie die Nvidia. Die DLSS3 Werte mit FG sind eine andere Tabelle weiter unten auf der Seite. Wo also ist das Problem? Außerdem hast du gesagt ich soll mal den PCGHW Test lesen. Jetzt regst du dich über Werte auf in einem Test den du selber vorgeschlagen hast. Daher gebe ich das
Passt was nicht in die eigene Argumentation hat ein Profi Tester einen Fehler gemacht oder "etwas stimmt nicht
gerne an dich zurück.


Und sorry ich bitte dich, wenn bei HW-Unboxed der einzige Test mit solchen Werten ist und dann auch noch mit genau gegenteiligen Ergebnissen wie bei allen anderen, ja dann gehe ich davon aus das etwas nicht stimmt. Nennt sich gesunder Menschenverstand.
In allen Tests, auch dem bei PCGHW wir die 4060 mit steigender Auflösung langsamer im Vergleich zu den Konkurrenten. Bei HW-Unboxed wird sie mit steigender Auflösung schneller, das musst du mir jetzt aber logisch erklären. Die 128-bit sind doch gerade bei steigender Datenmenge ein Problem, wieso wird sie dann bei steigender Datenmenge schneller bei HW-Unboxed?

Und selbst wenn es stimmt was HW-Unboxed getestet hat, dann stimmt deine Aussage trotzdem noch immer nicht, da die 4060 dort unter Full-HD auch immer noch schneller ist. Egal wie du es oder dich drehst und wendest, die 6700XT wird nicht schneller als die 4060 in RT außer in ein paar Ausnahmefällen, oder deinen Träumen vielleicht.
Da kannst du mir so oft vorwerfen ich würde alles ignorieren was nicht in meine Argumentation passt wie du willst. Das macht deine Aussage nicht richtiger.
Mal ganz davon abgesehen solltest du was das angeht besser mal vor deiner eigenen Türe kehre, denn im Dinge übersehen die dir nicht passen bist du Weltmeister.
 
DerFahnder schrieb:
Wer für 530€ das Ding bestellt und keine 6800 XT hat halt auch einfach den GPU Markt verdient, den wir gerade haben.
This!

Die hätten die 60er-Karten generell nur als Version mit 16 oder zumindest 12GB (bei 192Bit Interface und 16 Lanes) rausbringen sollen um ~420€ für die normale und ~480 für die Ti. Den Chip für die non-Ti halt einfach minimal beschneiden.
Das wär eine Angebot wo sich AMD dann mit der 7700er sicher ganz schön strecken müsste.
16GB sind irgendwie fast overpowert, da in höheren Auflösungen in Zukunft mit RT usw. ohnehin die Rohleistung nicht mehr reichen wird. Und die 8GB Version verhungert an den 8 Lanes wenn auf den Systemram geswappt werden muss.
Wer in der nächsten Zeit eine Karte braucht, sich nicht in irgendwelche Unkosten stürzen will und auch noch Starfield zocken will, für den wird die 6800(XT) mit dem beiliegenden Code für das Bethesda-Game eigentlich fast ein No-Brainer.
Zumindest wenn man nicht zu der Sorte Leute gehört die glaube ohne irgendwelche Nvidia-Features sterben zu müssen und mit 10fach Zoom 4k-Standbilder analysieren um dann zu sagen" bähhhh, FSR sieht soviel schlechter aus - da im Hintergrund auf den Bergen kann man die eine Stromleitung kaum mehr erkennen"

Mittlerweile bin ich ganz froh mich für die 6700XT als Ersatz für die GTX980 entschieden zu haben und nicht die 3060Ti bzw 3070 8er Karten. Wenn die trotz genug Dampf des Chips an VRAM Mangel zu kranken beginnen , spiel ich wohl noch beruhigt 1-2 Jahre weiter; gut auf höchste RT-Settings muss ich dann sicher verzichten, aber das war mir auch vorher klar und hab da kein Problem damit.
Einzig sich wieder an den Adrenalin-Treiber zu gewöhnen hat etwas gedauert, nachdem meine letzte Radeon nun doch schon einige Jährchen her ist. ^^
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DerFahnder
Fallout667 schrieb:
Die 7900XT ist halt im Vorteil wenn mehr als 12GB RAM benötigt werden, sonst ist sie so gut wie immer schlechter als die 4070ti.
Dann hat man wohl andere Tests gesehen als der Rest der Welt. xD
 

Anhänge

  • RTX-4070-Ti-vs-RX-7900XT-8-pcgh.jpeg
    RTX-4070-Ti-vs-RX-7900XT-8-pcgh.jpeg
    73,4 KB · Aufrufe: 87
  • RTX-4070-Ti-vs-RX-7900XT-4-pcgh.jpeg
    RTX-4070-Ti-vs-RX-7900XT-4-pcgh.jpeg
    72,1 KB · Aufrufe: 89
  • RTX-4070-Ti-vs-RX-7900XT-2-pcgh.jpeg
    RTX-4070-Ti-vs-RX-7900XT-2-pcgh.jpeg
    72 KB · Aufrufe: 91
  • Gefällt mir
Reaktionen: msv und OliMz1990
Zurück
Oben