News GeForce RTX 4060 Ti: 16-GB-Variante soll am 18. Juli erscheinen

Gr33nHulk schrieb:
Soll sich jeder kaufen was er will, aber gerade im GPU Bereich glänzt da momentan niemand.......ganz besonders Nvidia nicht.
Naja, mich persönlich interessiert nicht, wie eine 4060 mit 115 Watt performt, sondern nur, wie meine 4090 mit 270 Watt performt, und da sehe ich wenig Grund zu klagen.
 
Gr33nHulk schrieb:
Nvidia hat momentan kaum was im Griff und verarscht dessen Kunden im penetranten Dauerfeuer.......das Schöne ist aber, obwohl es offen gelegt wird, will es keiner verstehen.
Nur eines von sehr vielen aktuellen Beispielen, hier geht es gerade um deren tolle Effizienz: NVIDIAs Trick mit der "defekten" Telemetrie

Soll sich jeder kaufen was er will, aber gerade im GPU Bereich glänzt da momentan niemand.......ganz besonders Nvidia nicht.

1. Alle 4000er Grafikkarten bisher ziehen deutlich weniger als die TDP in Games, was schon mal eine große Änderung war. Wenn man sich alle AMD oder die 3000er Generation anschaut, dann wird da fast immer das Limit gezogen. Dazu ist die TDP auch schon relativ gering für die Leistung.

2. Bei der 4060 ist das tatsächlich komisch, dass dort in Spielen 5W mehr als TDP und maximal 15 Watt mehr als TDP gezogen werden. Trotzdem sind das in Games immer noch 50 Watt weniger (120 vs. 170) als bei der 3060.

Trotzdem unschön und verfälscht die Tests etwas.
 
Ayo34 schrieb:
Weil Micron keine Fabriken, Mitarbeiter und Technologie braucht um GDDR6(X) herzustellen?

2019 hat 8GB GDDR6 für Nvidia und AMD noch zwischen 55$ und 75$ gekostet.
Ich weiß nicht was beide für den Speicher bezahlen.

Nur wurde 2020 schon eine AMD 6800XT 16gb für 649$ vorgestellt.
Da soll der Speicher alleine 110-150$ kosten?

RTX 3060 mit 12gb für 329$ uvp lässt an den Preisen noch mehr Zweifel aufkommen.

Wenn es nicht offiziell gelistet ist, würde ich von solchen Hausnummern Abstand nehmen.
Alles was im Netz so kursiert sind Preise für Neukunden in der Mindestabnahme.
Egal ob Micron oder TSMC.
 
Du hast schon verstanden das 2019 der Speicherpreis bei 50-75$ lag und 2023 bei 27$. 27$ für 8GB. Wie kommst du auf 110-150$? Das zwischen 27$ und 110$ Aufpreis ist dann der Gewinn für Nvidia. Dafür verkauft Nvidia mit 16GB eben in der Zukunft ein paar weniger neue Karten und gleichzeitig hat man auch immer eine Marge drin.

Apple verlangt z.B. für normalen Arbeitsspeicher (nicht GPU Speicher), welcher günstiger ist für 16GB anstelle von 8GB einen Aufpreis von 250€! Nvidia jetzt für etwas teureren GPU RAM 110€ Aufpreis. Ich finde 70 - 100€ Aufpreis angemessen für 16GB bei der 4060. Du kannst die Karte dadurch einfach 2-4 Jahre länger verwenden und gleichzeitig kommst du in keinem Spiel ins RAM Limit + kannst Vorteile bei Anwendungen haben.
 
Modular erweiterbarer Grafikspeicher wäre ne tolle Idee. Gibts auf dem Mainboard auch, nennt sich RAM.
 
zivilist schrieb:
Dann bitte die 8 GB mit der 16 GB benchmarken. Ich denke, dass es nicht viel bringen wird. Ich vermute das es Nvidia nur rausgebracht hat, da die Diskussion um zu wenig RAM doch sehr groß ist. Wenn der Performance Boost durch den Aufpreis doch erheblich wäre (110 Euro ist unverschämt, nach dem Motto: wenn ihr bei allen Karten mehr Speicher wollt: soviel würde es mehr kosten), würden viele natürlich das auch für größere Modelle fordern und das würde nach hinten für Nvidia losgehen. Und schließlich darf diese nicht schneller sein als die RTX 4070.
Die 16GB Variante hat die gleichen Eckdaten wie die 8GB Variante. Von daher identische Leistung. Einzig bei VRAM hungrigen Games wird die Karte besser abschneiden, da nichts über das lahme x8 Interface nachgeladen werden muss. Du kannst insbesondere Texturqualität aufdrehen, was sowieso keine Leistung kostet, einzig VRAM. Die Karte ist zumindest zukunftssicherer als die 8GB, die jetzt schon öfters im Limit sind. Wenn man nicht so auf Qualität Wert legt, reichen natürlich auch 8GB. Aber wer will schon jetzt Regler in Spielen bedienen, bei einer brandneuen Karte...
shaboo schrieb:
Und dass die 4060 auch mit 16 (statt zum Beispiel 12) GB VRAM kommt, hat genau denselben Grund, aus dem die 3060 mit 12 (statt nur 8 oder 10) GB kam, und den muss man hier sicher nicht zum tausendsten Mal erklären.
Nur eine kleine Korrektur. Die 4060 bleibt bei 8GB, lediglich die größere Schwester 4060 Ti erhält das (teure) VRAM Upgrade. :)

Bei der 3060 war es noch was anderes. Damals gab es ja bereits schon eine 2060 mit 12GB. Nvidia konnte die 3060 mit nur 6GB einfach nicht bringen, da es die 6GB schon bei der GTX 1060 gab. Die dann noch erschienene 8GB Variante der 3060 war mehr als überflüssig, da diese total katastriert war.

Die 4060 ist mit 8GB nicht so schlecht, aber der Preis passt nicht für die 50er Klasse und den enormen Einsparungen, die man vorgenommen hat.
 
flappes schrieb:
Genau darum geht es ja, natürlich will man das höherwertige teure Produkt verkaufen -> mehr Gewinn.

nvidia hat eigentlich null Interesse an einer sub 400 € Karte.

Darum gibt es ja nur diese kastrierten Karten zu überzogenen Preisen.

Yes.

Nvidia betreibt ein ähnliches pricing wie Apple mit den iPads.

->> Das kleinee Modell hat immer zu wenig Speicher und das Modell mit ausreichend RAM kostet 30 Prozent Aufpreis bei 5 Prozent höheren Kosten.
 
Ayo34 schrieb:
Wo ist die 4070 unattraktiv? Das Ding ist ein Effizienzwunder, hat 50% mehr RAM als der Vorgänger, ist 25-30% schneller und mit unter 600€ bezahlbar. Im Gegensatz zur 6800xt spricht vor allem die Effizienz (200 vs 340 Watt) bei gleicher Leistung für die 4070. Alleine der Punkt ist Gold Wert. Man spart über die Zeit und kann gleichzeitig ein 150-200Watt kleineres Netzteil kaufen.

Das alleine würde mir schon reichen. Dann kommen aber noch die ganzen Nvidia Features dazu. Reflex, DLSS2, DLSS3, Raytracing und und und...

-> Eigentlich würde ich da niemanden mehr zur 6800xt oder 6900xt raten. All die Jahre haben alle Leute nach Effizienz geschrien, jetzt macht Nvidia genau das (bis zu 100% effizienter) und keiner greift mehr diesen Punkt auf. Im Sommer habe ich meine 4080 jetzt auf 200 Watt TDP limitiert, verliere kaum Leistung und kann alles in 4k, Ultra, Raytracing und 100 Frames+ mit DLSS3 spielen.
Naja was bringt eine bessere Effizienz, wenn der Aufpreis den ROI quasi ad absurdum führt. Ist wie bei A+++ Kühlschränken und Co., deren Mehrpreis sich erst nach 5 Jahren rechnerisch ausgleicht durch die eingesparten Stromkosten.
 
Naja ein Kühlschrank reicht reicht normal bei mir 10 Jahre+. Dazu kommt der Umweltaspekt. Beim Rechner speziell kommen ja noch viel mehr Sachen dazu.

Meine Grafikkarten halten normal immer 6 Jahre und der Rechner wird sehr viel genutzt. Dazu bezahlt man 200€ vielleicht mehr für die Grafikkarte, aber hat mehr Vorteile. 50€ weniger, weil das Netzteil 200 Watt niedriger ausfallen kann. Ist man noch bei 150€. Dann kann man bei Gehäuse und Lüfter noch einsparen, weil man 100-150 Watt weniger Abwärme abführen muss. Im Sommer wird der Raum deutlich weniger erhitzt, eventuell kann die Klimaanlage deutlich weniger laufen oder aus bleiben. + Umweltaspekt.

Und der Effizienzfaktor/Stromfaktor ist ja nur einer der Punkte, die für Nvidia in dieser Generation spricht.
 
Zurück
Oben