News GeForce RTX 4060 Ti 16 GB: Eine Woche nach Marktstart sind 7 Modelle lieferbar

FrankN84 schrieb:
Wenn man aber jetzt schon 300 €+ oder wie hier gar 400 € und mehr für eine 8GB Karte bezahlt, dann erwartet man sich etwas Zukunftssicherheit. Oder soll man Ende des Jahres bzw. Anfang 2024 schon wieder ans aufrüsten denken?
Natürlich wäre es schön wenn ne 60er Karte günstiger wäre und auch etwas zukunftssicherer. Nur irgendwie kauft man dann die falsche Karte.
Wenn man sich die Test der letzten 60er Karten anschaut dann haben die nie alle Titel im Testparcours auf 60 fps bei Full-HD und maximalen Details geschafft. Da waren immer ein paar Titel dabei wo es schon zu Release der Karte einfach nicht gereicht hat. Und zum Release hat die GTX 1060 auch fast 350€ gekostet. Bei der 2060 (369€ UVP) und 3060 (329€ UVP) war es nicht besser. Die 3060 war hier im Test auch nur 20% schneller als die 2060 und nur 5% schneller als die 2060 Super. Die RTX 2060 war immerhin fast 60% schneller als die GTX 1060, aber da waren ja auch noch die GTX 1660 (Super) und GTX 1660ti dazwischen und halt der Sprung von GTX auf RTX.

Zukunftssicher waren die 60er Karten daher noch nie. Und das war den Leuten auch klar, dann hat man halt die Details runter gedreht. Heißt ja nicht das man direkt was neues kaufen muss.
Nur jetzt müssen die Karten auf einmal für jedes Spiel reichen und auch noch für paar Jahre zukunftssicher sein. Das passt nicht wirklich zusammen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Tornavida, FrankN84 und sikarr
Eingeschränkt kann ich dir da zustimmen, aber die 2060 als auch 3060 (je 12GB) hatten nicht mit zu wenig VRAM und einem kastrierten Interface zu kämpfen. Auch wenn man nicht stets die 60FPS erreichte, so konnte man zumindest mit max. Texturauflösung spielen. Das wird im Jahr 2023 immer weiter unmöglich. Und wir reden hier noch von FullHD.

Es geht auch nicht nur darum, wieviele FPS mehr die Karte schafft. Allein schon die Tatsache, dass überlaufender Speicher zu massiven Nachladerucklern / Stottern führt. In diversen Szenarien läuft da selbst eine 3060 (Ti) geschmeidiger.

Das VRAM Problem wurde schon Jahre zuvor thematisiert, aber nie von den Konzernen -bewusst- für voll genommen. Sieht man ja nun, die 4070 hätte die eigentliche 4060 sein sollen, auch hinsichtlich VRAMs (wie 2er und 3er zuvor). Nun hat man eine 16Gb 4060 Ti, aber der Karte fehlt die Rohleistung, um überhaupt den VRAM nutzen zu können. Daneben steht der absurde Preis.
 
  • Gefällt mir
Reaktionen: 1994
Meiner Meinung nach ist bei der 4x00er Serie einfach die Namensgebung etwas durcheinander gekommen und der Preis deutlich zu weit nach oben gerutscht.

4060 8GB, 4060TI 8GB und auch 16GB ist doch DOA.. Ich kenne niemanden, der solch eine Karte kaufen würde. Zumal nicht zu solchen Preisen..

Wenn ich da zurückdenke, gab es mal bessere Zeiten für eine Mittelklasse-GPU..
GPU
1060
1070
1080
1080 TI
Titan X
Titan Xp
Preis
279€419€665€789€--
Preis FE
319€499€789€819€1.2991349€
GPU20602060S20702070S20802080S2080 TITitan RTX
Preis-
Preis FE369€419€629€529€849€739€1259€2699€
GPU3060 12GB3060 TI30703070 TI3080 10GB3080 12GB3080 TI30903090 TI
Preis
Preis FE329€419€549€619€759€?1199€1499€2249€
GPU4060 8GB4060 TI
8GB
4060 TI 16GB40704070 TI40804090
Preis329€549€
Preis FE-439€-659€-1329€1769€
 
FrankN84 schrieb:
Eingeschränkt kann ich dir da zustimmen, aber die 2060 als auch 3060 (je 12GB) hatten nicht mit zu wenig VRAM und einem kastrierten Interface zu kämpfen. Auch wenn man nicht stets die 60FPS erreichte, so konnte man zumindest mit max. Texturauflösung spielen....

FrankN84 schrieb:
Nun hat man eine 16Gb 4060 Ti, aber der Karte fehlt die Rohleistung, um überhaupt den VRAM nutzen zu können. Daneben steht der absurde Preis.
Das widerspricht sich jetzt aber. Bei der 2060 und 3060 sind die 12GB gut weil man ja wenigstens noch die Texturen auf max stellen konnte, auch wenn die Leistung fehlte.
Bei der 4060ti sind die 16GB jetzt aber schlecht weil sie nicht genug Leistung hat? Ja was denn jetzt?
Die 4060ti kann eben genauso die 16GB nutzen um wenigstens die Texturen immer auf max zu stellen, auch wenn die Leistung dann nicht immer für 60fps reicht. Und das 128-bit Interface ist auch kein Problem.
Genau das wurde doch an der 4060ti 8GB kritisiert, das eben bei Spielen wie Last of Us, Hogwarts Legacy usw. der Speicher schon unter Full-HD nicht gereicht hat.
Am besten wäre es jetzt natürlich wenn die kleine 4060 auch mindestens 12GB gehabt hätte und alle Karten etwas günstiger wären, aber den Gefallen hat uns Nvidia nicht getan.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: sikarr
1994 schrieb:
Meiner Meinung nach ist bei der 4x00er Serie einfach die Namensgebung etwas durcheinander gekommen
Fallout667 schrieb:
Bei der 4060ti sind die 16GB jetzt aber schlecht weil sie nicht genug Leistung hat? Ja was denn jetzt?
Fallout667 schrieb:
Zukunftssicher waren die 60er Karten daher noch nie.

Fällt einem hier was auf:
AD107 4060 8GB 18,3%/30,9% Rechenleistung der 4090/4080 (AD102/AD103)
AD106 4060 TI 8GB 27,7%/46,9% Rechenleistung der 4090/4080.
GA104 3060 TI 8GB 45,4%/54,4% Rechenleistung der 3090/3080 (GA102).
GA106 3060 12GB 35,6%/42,6% Rechenleistung der 3090/3080.
GA106 3050 8GB 25,5%/30,5% Rechenleistung der 3090/3080.
TU106 2060 6GB 64,9% Rechenleistung der 2080.

In der 4xxx Serie fällt man einfach eine komplette Seriennummer herab, daher hat die 4060 so große Probleme mit auch nur der 3060 TI Schritt zu halten. Und wohlgemerkt nachdem NVIDIA damit scheiterte eine 4080 12GB zu releasen, welche jetzt eine 4070 TI 12GB ist.

Die 4060 ist in Hardware nur eine 4050.
Sieht man auch am Chip.
AD107... das ist ein Scherz > Clownkarte.
Allein wenn man sich mal die 3060 ansieht...
 
  • Gefällt mir
Reaktionen: 1994
Draco Nobilis schrieb:
Fällt einem hier was auf.....
Und was hat das jetzt mit der Tatsache zu tun das die 60er Karten noch nie zukunftssicher waren?
Es waren schon immer die Einsteigerkarten zusammen mit den 50er Karten.
Die waren schon immer bei Release nicht schnell genug um alles in Full-HD auf max zu zocken.
Die hatten auch noch nie genug RAM bis auf die Ausnahme bei der RTX 3060 und der RTX 2060 (die erst 2021 nachgeschoben wurde weil wegen Mining keine GPUs zu bekommen waren). Und die 3060 war auch kaum schneller als die 2060, im Release Test waren es auch nur 23%.
Das gibt sich zur 4060 jetzt nicht wirklich was, bei der waren es 18%.
Warum sollte jetzt auf einmal die 4060 so viel besser sein als alle 60er Modelle zuvor?

Oder was hat das damit zu tun das die 16Gb der 4060ti angeblich nicht genutzt werden können wegen der fehlenden Leistung?

Und wegen der Chipgröße kann ich immer nur wieder sagen es ist Nvidia selbst überlassen welchen Chip sie in welche Karte stecken. Das wechselt eh von Generation zu Generation lustig hin und her.
Bestes Beispiel die 80er Serie. Da war von 102 bis 104 alles dabei. Und welche davon ist jetzt ein echte 80er Karte deiner Meinung nach? Dürfte dann ja nur die 3080 mit GA102 sein. Die 1080, 2080 und 4080 sind dann ja alle keine echten 80er, oder nicht? Sind das jetzt Clown 80er?

Der Chip der drin steckt ist doch vollkommen Latte, die Leistung muss stimmen. Hätte die 4060 mit dem 107er Chip 50% Mehrleistung zur 3060 gebracht würde es wieder niemanden stören.
Ja die Leistung hätte halt höher sein können wenn Nvidia das gewollt hätte, haben sie aber nicht. Es wurde halt alles unterhalb der 4090 sehr stark beschnitten und dazu noch teurer gemacht. Sie hätten es halt wie bei Ampere machen können. Alle Karten mit geringerem Abstand zueinander und dann hätten auch die kleinen Karten ordentlich zugelegt. Aber so will sich Nvidia wohl eher die Lücken groß lassen damit noch ein Refresh der Gen dazwischen passt.
So sind die kleinen Karten halt langsamer als sie hätten sein können. Im Vergleich mit den vorherigen Generationen sind sie jetzt aber auch nicht grottenschlecht oder Clownskarten. Nur einfach bei dem zu hohen Preis mit zu vielen Kompromissen behaftet als das man sie guten Gewissens empfehlen könnte.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: sikarr
Fallout667 schrieb:
Und was hat das jetzt mit der Tatsache zu tun das die 60er Karten noch nie zukunftssicher waren?
Das es eine 4050 ist, welche 4060 heißt und vor allem deswegen und der 8GB keine Zukunftssicherheit besitzt. Aber ich bin es Leid immer wieder zu beweisen das die Karte selbst für 60er Verhältnisse Mist ist.

Fallout667 schrieb:
Der Chip der drin steckt ist doch vollkommen Latte
Ist es nicht, da dies ja erklärt wieso die Karte so Bescheiden ist.

Fallout667 schrieb:
Hätte die 4060 mit dem 107er Chip 50% Mehrleistung zur 3060 gebracht würde es wieder niemanden stören.
Tut Sie aber nicht.
Warum? Weil die Chipnummern actually was bedeuten.
Nochmal: Der Typ des Chips ist ein Beleg wieso die Karte physikalisch in dieser Realität eben nicht mithalten kann.

Fallout667 schrieb:
Das wechselt eh von Generation zu Generation lustig hin und her.
Falsch, den Beweis bist du mir Schuldig.
Und vergiss nicht das es Salvage Lösungen gibt. D.h. Teildefekte größerer Chips werden 6-12 Monate nach Release gerne als TI der Klasse drunter angeboten.
Und das wiederum erklärt wieso die 3060 TI bsp. die 4060 wegbügelt.
Da die 3060 TI den selben DIE benutzt der bei der 3070 Anwendung findet (eben als Salvage Lösung).

Fallout667 schrieb:
Es wurde halt alles unterhalb der 4090 sehr stark beschnitten
Einfach falsch, Ich habe extra für Menschen mit Schwäche zum lesen die beiden Zahlen fett hervorgehoben welche sich auf die Rohleistung vgl. der 80er Gen beziehen!

Für Menschen mit Lese-Benachteiligungen:
AD107 4060 8GB 30,9% Rechenleistung der 4080 (AD103)
GA106 3050 8GB 30,5% Rechenleistung der 3080 (GA102)

Das ist Fakt und lässt sich nicht wegdiskutieren.
Die Karte ist auch für xx60er Verhältnisse eine Schande.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 1994
Draco Nobilis schrieb:
Das es eine 4050 ist, welche 4060 heißt und vor allem deswegen und der 8GB keine Zukunftssicherheit besitzt. Aber ich bin es Leid immer wieder zu beweisen das die Karte selbst für 60er Verhältnisse Mist ist.
:schluck:

Draco Nobilis schrieb:
Tut Sie aber nicht.
Warum? Weil die Chipnummern actually was bedeuten.
Nochmal: Der Typ des Chips ist ein Beleg wieso die Karte physikalisch in dieser Realität eben nicht mithalten kann.
Eine Frechheit, dass Nvidia uns eine RTX 4070 TI (AD-104) sogar erst als "4080 12GB" verkaufen wollte.
Deswegen mussten sie auch die UVP's der 4080 und 4090 im Nachhinein anpassen.
Nvidia hat eben versucht nochmals eine Schippe drauf zu legen..

Draco Nobilis schrieb:
Und vergiss nicht das es Salvage Lösungen gibt. D.h. Teildefekte größerer Chips werden 6-12 Monate nach Release gerne als TI der Klasse drunter angeboten.
Und das wiederum erklärt wieso die 3060 TI bsp. die 4060 wegbügelt.
Da die 3060 TI den selben DIE benutzt der bei der 3070 Anwendung findet (eben als Salvage Lösung).
Draco Nobilis schrieb:
Für Menschen mit Lese-Benachteiligungen:
AD107 4060 8GB 30,9% Rechenleistung der 4080 (AD103)
GA106 3050 8GB 30,5% Rechenleistung der 3080 (GA102)

Das ist Fakt und lässt sich nicht wegdiskutieren.
Die Karte ist auch für xx60er Verhältnisse eine Schande.
Genau so ist es. Nvidia versucht immer wieder kleinere Die's unterzubringen, wahrscheinlich damit sie noch eine Karte irgendwo im Portfolio zwischenschieben können oder uns so zum nächstgrößeren und umso teureren Modell drängen wollen. Der Effekt ist auf jeden Fall, dass die Karten insgesamt in immer höhere Preisgefüge rutschen.

Und wenn man bedenkt, dass die 4080 eigentlich einen AD102 Die haben könnte, dann sähe es für die 4060 noch düsterer aus.

GTX 560 - GF104
GTX 660 - GK106
GTX 760 - GK104-225 -> 660 TI GK104-300-> 760 TI GK104-325-> 680 GK104-400-> GTX 770 GK104-425 :hammer_alt:
GTX 960 - GM206-300
GTX 1060 - GP106-400
RTX 2060 - TU106-200
RTX 3060 - GA106-300 (12GB)
RTX 3060 - GA106-302 (8GB)
RTX 4060 - AD107-400 -> RTX 3050 (GA106-150) -> GTX 1050 TI (GP107-400) -> GTX 750 TI (GM107-400)

RTX 2060S - TU106-410

GTX 560 TI - GF114-400
GTX 660 TI - GK104-300
GTX 760 TI - GK104-325
RTX 3060 TI - GA104-200
RTX 3060 TI - GA104-202 (GDDR6X)
RTX 4060 Ti - AD106-350 (8GB)
RTX 4060 Ti - AD106-351 (16GB)

GTX 570 - GF110
GTX 670 - GK104-325
GTX 770 - GK104-425
GTX 970 - GM204-200
GTX 1070 - GP104-200
RTX 2070 - TU106-400
RTX 3070 - GA104-300
RTX 4070 - AD104-250

RTX 2070 S - TU104-410

GTX 1070 TI - GP104-300
RTX 3070 TI - GA104-400
RTX 4070 TI - AD104-400

GTX 580 - GF110
GTX 680 - GK104-400
GTX 780 - GK110-300
GTX 980 - GM204-400
GTX 1080 - GP104-400
RTX 2080 - TU104-400
RTX 3080 - GA102-200
RTX 3080 - GA102-220 (12GB)
RTX 4080 - AD103-300

RTX 2080 S - TU104-450

GTX 780 TI - GK110-425
GTX 980 TI - GM200-310
GTX 1080 TI - GP102-350
RTX 2080 TI - TU102-300
RTX 3080 TI - GA102-225

RTX 4090 - AD102-300

GTX Titan - GK110-400
GTX Titan B - GK110-430
GTX Titan X - GM200-400 (Maxwell)
Titan XP - GP102-400 (Pascale)
Titan Xp - GP102-450
Titan RTX - TU102-400

Titan V - GV100-400

Fallout667 schrieb:
Und was hat das jetzt mit der Tatsache zu tun das die 60er Karten noch nie zukunftssicher waren?
Naja damals hat man als Gamer sowieso jedes Jahr oder alle zwei Jahre spätestens die GPU gewechselt. Zumindest viele aus meinem Kreis haben das lange so gemacht.

Fallout667 schrieb:
Es waren schon immer die Einsteigerkarten zusammen mit den 50er Karten.
Die waren schon immer bei Release nicht schnell genug um alles in Full-HD auf max zu zocken.
Die hatten auch noch nie genug RAM bis auf die Ausnahme bei der RTX 3060 und der RTX 2060
Die GTX 760 war z.B. bei Full HD im Schnitt 46% schneller als die GTX 750 TI.
Die GTX 1060 6GB war ca. 63% schneller als die GTX 1050 TI.
Und die RTX 3060 ist ca. 39% schneller als eine RTX 3050, die allerdings auf dem selben Chip, dem GA106 basiert.

Fallout667 schrieb:
Und die 3060 war auch kaum schneller als die 2060, im Release Test waren es auch nur 23%.
Die RTX 2060 hat damals die GTX 1060 mit 58% überholt. Es war fast klar, dass die 3000er Serie im Mittelklassesegment nicht nochmal solche Sprünge macht. Die 3080 war 52%-60% schneller als die 2080S.

Fallout667 schrieb:
Und wegen der Chipgröße kann ich immer nur wieder sagen es ist Nvidia selbst überlassen welchen Chip sie in welche Karte stecken. Das wechselt eh von Generation zu Generation lustig hin und her.
Bestes Beispiel die 80er Serie. Da war von 102 bis 104 alles dabei. Und welche davon ist jetzt ein echte 80er Karte deiner Meinung nach? Dürfte dann ja nur die 3080 mit GA102 sein. Die 1080, 2080 und 4080 sind dann ja alle keine echten 80er, oder nicht? Sind das jetzt Clown 80er?
Damals hat die GTX 680 eben als erste 80er GPU einen GK-104-Die gehabt, obwohl dort eigentlich der GK-110 reingehört hätte.
Die GTX 680 war nur so schnell (30%+ zur GTX 580), da Nvidia nur kleine Sprünge mit der GTX 580 im Vergl. zur GTX 480 gemacht hat (16%) und von 40nm-Fertigung auf 28nm runter gegangen ist.
So hat Nvidia eine Gen "gestreckt" und dann erst mit der GTX 780 den echten Highend Chip genutzt.
Danach haben sie noch den GK-110 für die Titan, 780 TI und die Titan Black genutzt.

Mit der GTX 680 fing der Schlamassel an. Kleiner Chip für viel Geld. Danach hat man es mit der Titan versucht und es hat, wie man heute sieht, super funktioniert! Wir sind bei 1729€ (Marktstart 1949€ UVP) für einen AD102-300 Chip angelangt. :pcangry:

Die 3000er Serie wurde in 8nm gefertigt und die 4000er jetzt in 4nm. Dann ist es doch logisch, wieso die RTX 4090 so viel schneller ist, als die RTX 3090. Die 3080 war 11% langsamer als die 3090 (UHD).
Die 4090 ist in UHD rund 36% schneller als eine RTX 4080, dort klafft eine große Lücke, weil die 4080 einen AD103-300-Die hat.

RTX 3080 - GA102-200 - 628 mm2
RTX 3090 - GA102-300 - 628 mm2
RTX 4080 - AD103-300 - 379 mm2
RTX 4090 - AD102-300 - 608 mm2

Dort wird sicherlich irgendwann im nächsten Jahr eine TI bzw. eine Super platziert werden.

Fallout667 schrieb:
Der Chip der drin steckt ist doch vollkommen Latte, die Leistung muss stimmen. Hätte die 4060 mit dem 107er Chip 50% Mehrleistung zur 3060 gebracht würde es wieder niemanden stören.
Ist aber eben nicht so. Die RTX 4060 bietet wie viel Mehrleistung zur RTX 3060? Igor hat ein tolles Video dazu gemacht!
Und auch die 4060 TI bietet nur 7% (WQHD) bzw. 9% (FullHD) Mehrleistung gegenüber der 3060 TI.
Wenn man sich die Leistungssprünge der 4090 ansieht, dann wäre hier über die ganze Palette hinweg ein deutlicher Leistungsgewinn möglich gewesen, aber das will Nvidia wohl nicht.

Fallout667 schrieb:
Ja die Leistung hätte halt höher sein können wenn Nvidia das gewollt hätte, haben sie aber nicht. Es wurde halt alles unterhalb der 4090 sehr stark beschnitten und dazu noch teurer gemacht.
Eigentlich sollten vorallem die kleineren Karten in den Regalen liegen bleiben. Die 4090 ist die einzige Karte ohne Kompromiss. Die 4080 wäre auch gut, wobei 20GB deutlich besser sein würden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: FrankN84, Draco Nobilis, OZZHI und eine weitere Person
Ist ja alles gut und schön ich kenne die Argumentation mittlerweile auswendig. Es bezweifelt auch niemand hier das die 4000er Serie hätte besser sein können. Wir wären alle froh drüber gewesen. Nur ist das nicht passiert. Und jetzt haben wir zwei Möglichkeiten kaufen oder nicht kaufen.

Diese Diskussion welcher Chip jetzt in der Karte zu sein hat bringt jetzt genau was? In der GTX 460 und GTX 560 war es noch der 104er Chip. In der GTX 260 war es sogar noch der 100er Chip. Danach war es der 106er und jetzt ist es halt der 107er. Welcher ist denn jetzt der echte und einzig Wahre 60er Chip? Solange Nvidia damit schneller ist als die Konkurrenz von AMD, warum sollten sie da was schnelleres drauf machen.
Gut dann ist die Karte eben eine 4050, was ändert es denn? Die Karte ist dann immer noch scheiße und kostet trotzdem noch genauso viel. Nvidia wird nicht auf einmal 4050 auf den Karton schreiben und 150€ weniger für die Karte verlangen.
Und das die Karte schlecht ist das weiß mittlerweile jeder hier.
Die 4060 ist schlechter als ihre jeweiligen Vorgänger, trotzdem wird sie den Anspruch an eine 60er Karte erfüllen, den die meisten Leute haben. Weil im Endeffekt ist sie nicht wirklich groß anders als alle 60er Karten zuvor.
Sie hat zu wenig Speicher und sie ist zu langsam für durchgängig Full-HD mit maximalen Details und 60fps. Dann ist sie für das was sie leistet auch noch zu teuer. Also genau wie eigentlich jede 60er Karte zuvor. Ich sehe da jetzt keinen großen Unterschied zu früher. Sie ist höchstens noch ein Stück schlechter als die anderen 60er. Aber alles nichts was sich je wirklich zu kaufen gelohnt hat.
Aber scheinbar stört das die meisten Leute auch nicht wirklich. Die 60er Karten sind trotzdem immer die meistverkauften der Reihe auch wenn sie noch nie wirklich gut waren und die Konkurrenzmodelle von AMD meist besser und günstiger.

Klar hätte die 4060 schneller sein können wenn sie einen größeren Chip bekommen hätte der halt weniger beschnitten ist. Sie hätte ein größeres Speicherinterface haben können und mehr Speicher. Genauso wie alle Karten rauf bis zur 4080. Dann wären die Karten aber sehr wahrscheinlich noch teurer, weil dann würden die Leute ja auch erst wieder viel später aufrüsten. Und ob dann noch genug Spielraum für ein Refresh bleibt wenn alle Karten so dicht zusammen hängen ist auch fraglich. Nvidia würde also auf eine ganze Menge Umsatz verzichten. Und als kapitalistisches Unternehmen werden die das wohl kaum machen.

Wie du schon erkannt hast ist das was Nvidia macht auch gar nicht neues. Damals gab es nicht größeres als die 80er Serie (gut die 90er als Dual GPUs), natürlich hatten die dann auch den größten Chip. Da war die GTX 460/560 noch auf dem 104er Chip. Bei der GTX 260 war es sogar der 100er. Das weiß ich alles. Nur wenn ich dann jetzt nach eurer Logik argumentiere dann sind alle Karten bis auf die GTX 260 eigentlich alle keine echten 60er mehr weil die haben ja nicht mehr den 100er Chip. Vielleicht noch die 460 und 560 mit den 104ern, aber alles danach war mit dem 106er Chip ja schon quasi Kernschrott.
Das Problem war das mit der GTX 600er Reihe leider der Zeitpunkt erreicht war ab dem AMD quasi nicht mehr mithalten konnte.
Und wie jedes Unternehmen hat Nvidia ab da halt immer nur noch so viel wie nötig gemacht. Daher hatten sie überhaupt erst die Möglichkeit die großen Chips in die Titan zu stecken oder erst eine Genration später auf den Markt zu bringen. Und die Leute haben es schon damals gekauft. Ist ja nicht so als wären die auf ihrem überteuerten Zeug sitzen geblieben.
Außerdem wenn sie immer alles maximal mögliche rausgehauen hätten wäre AMD mittlerweile so dermaßen im Rückstand das der ganzen Laden eventuell pleite wäre oder zumindest die GPU Sparte. Wenn Nvidia die 4000er Serie so auf den Markt gebracht hätte wie es die Leute gerne hätten, dann hätte die 4060ti AMDs größtes und teuerstes Modell geschlagen.

Die 4000er Serie ist jetzt halt nur die vorläufige Spitze einer Entwicklung die schon lange andauert. Jetzt verkaufen sie halt Features anstelle von mehr Leistung. Da können wir hier meckern wie wir wollen, das wird sich nicht ändern. Erst wenn wirklich keiner mehr die Karten kauft, aber das sehe ich nicht. Warum auch?
 
  • Gefällt mir
Reaktionen: Tornavida
"Die 4060 ist schlechter als ihre jeweiligen Vorgänger, trotzdem wird sie den Anspruch an eine 60er Karte erfüllen, den die meisten Leute haben. "

Nö. Da Habe ich andere Ansprüche bei dem Preis, und zum Glück bleibt der Einzelhandel darauf sitzen.
 
Fallout667 schrieb:
Gut dann ist die Karte eben eine 4050, was ändert es denn?
Es belegt halt in einem Satz warum die Karte Mist ist. Ohne erstmal tausend Jahre Benchmarkergebnisse, Speicheranbindungsprobleme, Cache Probleme und 8GB Problematik aufzuzeigen, was ja alles getan wurde.

Fallout667 schrieb:
Und das die Karte schlecht ist das weiß mittlerweile jeder hier.
Da bin ich mir nicht so sicher xD

Fallout667 schrieb:
Da können wir hier meckern wie wir wollen, das wird sich nicht ändern.
Ist es meckern?
Meine Intention ist, es soll andere Leser warnen, diese Karte nicht zu kaufen.
Kauft eine 3060 12GB, oder ne AMD 6800 16GB (ok die ist schon etwas teurer, ja weil eben viel schneller auch und wegen 16GB).

Es bringt ja nix wenn eine 4060 die Rohleistung nicht auf das Parkett bringt und nur noch rumstottert.
RT und DLSS3 am Arsch, beides braucht VRAM.

Sollte die 4060 in BG3 auch schlecht performen dann setzt es wieder was von mir xD
 
Draco Nobilis schrieb:
Sollte die 4060 in BG3 auch schlecht performen dann setzt es wieder was von mir xD
Da kann ich dich beruhigen. Die 4060 liefert in BG3 flüssige 60FPS in FHD bei max. Details. Scheint also kein großer Hardware Fresser zu sein, auch was den VRAM betrifft.
"8 GiByte Speicher genügen laut unseren Beobachtungen bis inklusive WQHD mit maximalen Details"
https://www.pcgameshardware.de/Bald...rk-Test-Review-Grafik-Ersteindruck-1425826/2/


Es gibt sie also noch, brandneue Spiele für 8GB Karten (unter max. Details).

Dennoch kein Grund für Euphorie. Man sieht schön, wo sich die 4060 einordnet, sogar 3-9% unter der RX7600. Selbst eine RTX 2070 super ist 2-3% /ca. 2FPS schneller. Eine 3060 liefert auch spielbare Ergebnisse nahe 60FPS.

btw.
Eine 4060 Ti wurde nicht unter BG3 getestet, vermutlich weil bereits die kleine Schwester 60FPS liefert.
 
FrankN84 schrieb:
Dennoch kein Grund für Euphorie. Man sieht schön, wo sich die 4060 einordnet, sogar 3-9% unter der RX7600. Selbst eine RTX 2070 super ist 2-3% /ca. 2FPS schneller. Eine 3060 liefert auch spielbare Ergebnisse nahe 60FPS.
Ich Vergleich die 4060 immer gern mit meiner alten 2080 8GB, welche etwa gleich schnell ist.
Die war natürlich viel teurer und braucht inzwischen mehr Strom als der Standard, aber hatte 5 Jahre Service und naja... ist auch mindestens so alt.
Wieviele xx60er Karten haben da einige schon dazwischen gekauft? Vor allem zu Mining-/Scalperpreisen?

FrankN84 schrieb:
Da kann ich dich beruhigen. Die 4060 liefert in BG3 flüssige 60FPS in FHD bei max. Details.
Das hatte ich auch erwartet, aber wie immer. 100% sicher war ich nicht.
Den EA hab ich vor 2 Jahren genutzt, 60h ohne Probleme mit der 2080 damals in 3440x1440. Natürlich nicht gänzlich frei von jeglichem Ruckler, aber es ist ein cRPG, kein Shooter passte schon.
 
Wird ein Test von CB statt finden?
 
Und gibt es schon mittlerweile eine Produktänderung oder zumindest die Umlabelung zu einer 4050 nach all dem Rant? Nicht😭😂?
Vermutlich denken die gleichen Leute, dass sie verantwortlich sind, dass die 4070 4070 heisst und nicht Amds Lineup und Performance massgeblich dafür der Anlass war.
 
  • Gefällt mir
Reaktionen: Fallout667
Hab gestern auf YT einen Vergleich zwischen 4060ti 16GB und 6800xt angeschaut. War schon ernüchternd.
Hat mich in meiner Entscheidung eine gebrauchte 6800 XT zu kaufen vollkommen bestätigt.
 
Ich find die Karte (ROG STRIX 4060 Ti 16 GB OC) super. Niedrigerer Stromverbrauch als noch die 3060, 16 GB und somit für einige Zeit sicher absolut ausreichend. Klar, nicht so schnell wie 4070 und andere. Für meine Zwecke reicht sie. Und wenn ich richtig zocken will, dann nehm ich meinen anderen PC mit einer verbauten 4090er.
 
Nun gab es den ersten größeren Preissturz des 16GB Modells.

So schreibt PCGH etwa:
"Die Geforce RTX 4060 Ti Advanced Dual kostet mit 16 GiB nur noch 463 Euro. Am Mittwoch wurden für dieselbe Grafikkarte hingegen noch 538 Euro verlangt."
https://www.pcgameshardware.de/Gefo...enkung-deutlich-guenstiger-wegen-AMD-1428131/

Da ist noch Luft und man sieht deutlich, dass der Preis in absurd hohen Regionen angesetzt wurde, alles für eine hohe Gewinnmarge. Nun musste man wohl aufgrund des Releases der AMD Karten RX 7700 XT sowie 7800 XT reagieren.
 
Zurück
Oben