Benchmarking 1
  • ComputerBase erhält eine Provision für Käufe über eBay-Links.

Wurden (Mittelklasse)Grafikkarten wirklich so viel teurer?

@Sahit ja und früher hat man sich eben schon der Grenze immer weiter genähert und trotzdem wurden die Grafikkarten nicht nur nicht teurer, sondern sogar günstiger. Man hat immer das gefertigt was wirtschaftlich sinnvoll ist, nur weil man theoretisch früher auf 300mm²+ gehen konnte heißt nicht das es sinnvoll ist. Auch heute könnte man noch größere Chips als die 5090 fertigen das ist nur nicht sinnvoll, aktuell ist die Grenze bei TSMC 830mm² und dann gibt es darüber heutzutage noch Sachen wie Interposer (1700mm²) usw usf
 
Die YIELD Rate ist das entscheidende.
Größere Chips heisst, dass man sowieso weniger raus bekommt, aber dummerweise halt auch, dass mehr Chips wegen Fehlern verworfen werden müssen.
Wenn du auf einem Wafer eine Fehlerquote von 2 hast und nur 10 chips pro wafer im Idealfall raus bekommst, dann sind mit 2 Fehlern im schlechtesten Fall direkt 2 Chips und damit 20% unbrauchbar.
Wenn du vom selben Wafer mit immer noch 2 Fehlerquote aber 100 Chips bekommst, dann sind im schlimmsten Fall immer noch 2 Chips unbrauchbar, was aber nur noch 2% Ausfall ist.

Darum ist es dämlich immer größere Chips zu machen.
Früher wurde die Yield-Rate durch shrink im Fertigungsprozess erhöht.
Heute wird dummerweise einfach ein chip von derselben oder mehr Fläche mit mehr Transistoren gebaut, statt einen Chip mit denselben Transistoren auf weniger Fläche aber mit besserem Yield zu fertigen.

Heute gibt es aber auch nicht mehr solch extreme Fortschritte im Shrink der Strukturbreite der Fertigung, was auch wieder die Steigerung der Yield-Rate einschränkt.
 
@Knuddelbearli Ist und beliebt aber das die Preise der Chips durch größe exponentiell anwachsen. Siehe die Ausführung vom @Stahlseele
Es ist also so das du eine RTX 5090 (Inflation außen vor) mit nix was es vorher gab vergleichen könntest.

Was eher geht ist dann innerhalb der Serie zu vergleichen aber auch hier hast du das Problem das ein Vergleich 5060 zu 5090 vorher nie vorgekommen wäre weil NV keine vergleichbaren Chip hätte.

Die Preise von NV sind teilweise hart überzogen. Ich verteidige hier nicht die Preisgestaltung ich sage nur ein Preisvergleich über mehrere Serien hinweg ist nun Mal sehr schwer.
 
unspektakulaer schrieb:
Für uralte Hardware, wenn ich jetzt kaufe möchte ich auch jetzige Hardware, alleine aufgrund des Featuresets

Du rechnest hier falsch. So ähnlich wie all die Autofahrer in Autoland, die bei den Autokosten den irrsinnigen Wertverlust nicht mit einrechnen (oder lieber vergessen wollen). Motto: Nur Weißwurst, die auf Markus Söders TikTok-Fressteller landet, implodiert schneller im Wert. Und nur der Totalcrash im Crypto-Portfolio vernichtet stabiler Vermögen.

Du gibst zwar erst mal mehr Geld für neue Hardware aus. Du kriegst aber selbst Jahre später auch wieder Geld zurück -- es sei denn, die Weiterentwicklung kriegt wider allen Erwartungen und Entwicklungen am Chipmarkt plötzlich wieder nen Turbobooster verpasst...

https://www.computerbase.de/forum/t...force-8800-ultra.2083361/page-6#post-30846138
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: angHell
Stahlseele schrieb:
Die YIELD Rate ist das entscheidende.
Größere Chips heisst, dass man sowieso weniger raus bekommt, aber dummerweise halt auch, dass mehr Chips wegen Fehlern verworfen werden müssen.
Wenn du auf einem Wafer eine Fehlerquote von 2 hast und nur 10 chips pro wafer im Idealfall raus bekommst, dann sind mit 2 Fehlern im schlechtesten Fall direkt 2 Chips und damit 20% unbrauchbar.

Was für Yields hat der GB202, hast du da Infos?

Dürfte doch weit in den hohen 90er sein, wenn man teil deaktivierte Chips weiternutzt,

Sehe da also jetzt auch nicht den großen Unterschied, um die Preissteigerung rechtfertigen müsste Yield ja unter 30% sein, also sehe ich nicht, wo uns dein Argument mit Yields hinführt

Gerade gefunden, der Chip der 5090 kostete keine 300 Dollar

https://www.tomshardware.com/pc-com...ts-die-could-cost-as-little-as-usd290-to-make

Considering defect density and yields, Nvidia may have to spend around $290 to make a GeForce RTX 5090 graphics processor

und das vor 1,5 Jahren
 
Zuletzt bearbeitet:
Die 5090 kann man bei der hier gestellten Fragestellung komplett ausklammern.
Das ist einfach nur ein Luxusprodukt, deren Kosten nicht mit der Leistung übereinstimmen. Meineserachtens ist auch die 5080 kastriert. Die hätte eher 24GB haben sollen um sich sinnvoll ins Portfolio einzureihen.
 
Sapphire Forum
Zurück
Oben