News Nvidia GeForce RTX 4070: Nach MSI nutzt auch Gigabyte die AD103- statt der AD104-GPU

Maine

Lt. Commander
Registriert
Jan. 2007
Beiträge
1.849
  • Gefällt mir
Reaktionen: PietVanOwl, Benjamin_Blume, aid0nex und 3 andere
Sowas macht Nvidia eigentlich in jeder Generation, versuchen damit halt alle DIEs, die ansonsten nicht mehr verwertbar gewesen wären, zu retten. Ist ja auch kein Problem für die Kunden, bedeutet halt bloß für die Grafikkartenhersteller, dass die Kontaktfläche zum DIE größer ausfallen muss.
 
  • Gefällt mir
Reaktionen: Mar1u5, aid0nex, Zagrthos und 2 andere
Vielleicht gibt es ja wieder eine Unlocking Funktion, erinnere mich noch daran meine 6800 zu entsperren.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Chri996, Mar1u5, WilloX1980 und 7 andere
Es geht weniger um die Leistung, als um die Energieeffizienz, die wie üblich bei größeren Chips, die stärker beschnitten sind, steigen könnte. Außerdem könnte die Temperatur runter gehen, da die Wärme besser verteilt wird.
 
  • Gefällt mir
Reaktionen: Mar1u5, WilloX1980, Baal Netbeck und 7 andere
crogge schrieb:
Vielleicht gibt es ja wieder eine Unlocking Funktion, erinnere mich nach daran meine 6800 zu entsperren.
Ich dachte, die Zeiten von Silberlack sind lange vorbei? 😉
Ergänzung ()

CDLABSRadonP... schrieb:
Sowas macht Nvidia eigentlich in jeder Generation, versuchen damit halt alle DIEs, die ansonsten nicht mehr verwertbar gewesen wären, zu retten.
Mich wundert es immer, dass anscheinend genug monetärer Spielraum dafür vorhanden ist. Die Dies müssen bearbeitet werden und die Partner benötigen idR ein neues PCB. Das kostet ja alles etwas.
 
  • Gefällt mir
Reaktionen: Chri996, muggl70, TieTie und 3 andere
Schrecklich solche Vorgehensweise der Hersteller. Miese Qualität der Chips weiter verhökern, keiner weis wie lange der Chip noch halten wird. Abartig meiner Meinung, nur der einzige Vorteil hat der Käufer zwei Jahre Garantie.
 
  • Gefällt mir
Reaktionen: cocosape
Es sind Nvidia GeForce RTX 4070 von MSI und Gigabyte aufgetaucht, die den viel größeren AD103- anstelle des AD104 verwenden.

da fehlt ein "s"

Zum Thema:
Leistungsmässig wird da ja kaum was bemerkbar sein, oder?

@Maine danke fürs korrigieren.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Maine
Ich vermute selbst wenn es nicht Teildefekte Dies sind wird Nvidia da per Lasercut o.Ä. sichergestellt haben, dass es nichts umsonst gibt.

Sowas war früher aber schon Klasse, Habe damals meine X800GTO² auf X850XT geflasht. War ein nicht zu vernachlässigender Sprung.

@aklaa Weis nicht worauf du dich da genau beziehst. Stochastische Defekte bei der Belichtung von Wafern sind dir bekannt?
https://harshari.github.io/yield.html
 
  • Gefällt mir
Reaktionen: Chri996, cvzone, ThirdLife und 13 andere
aklaa schrieb:
Miese Qualität der Chips weiter verhökern, keiner weis wie lange der Chip noch halten wird.
Die Produktionsdefekte sind in den deaktivierten Teilen des Chips. Wieso soll da die Haltbarkeit leiden? Solch ein Defekt breitet sich nicht aus.
 
  • Gefällt mir
Reaktionen: Chri996, Slim.Shady, Mar1u5 und 21 andere
Wie in der Meldung bei TPU steht, ist die Grundfläche der Packages bei AD103 und AD104 identisch, d.h. die Boardpartner müssen gar nicht so einen großen Aufwand betreiben, sondern können die AD103er relativ problemlos verbauen.
 
  • Gefällt mir
Reaktionen: eastcoast_pete und Haldi
Der Chip ist zwar größer, aber bessere Kühlung der größeren Fläche wird vermutlich durch die Serienstreuung aufgefressen. Unterm Strich ist es also egal was man kauft.
 
Demon_666 schrieb:
Mich wundert es immer, dass anscheinend genug monetärer Spielraum dafür vorhanden ist. Die Dies müssen bearbeitet werden und die Partner benötigen idR ein neues PCB. Das kostet ja alles etwas.
Die AD103 mit weniger aktiven Shadern fallen ja bei der Produktion ohnehin ab, es ist also seitens Nvidia vermutlich sogar finanziell vorteilhaft, diese "schlechten" Chips dann auf langsameren Modellen zu verwerten.

Im Sinne von "Besser zweitverwerten als wegschmeißen".
 
  • Gefällt mir
Reaktionen: the_ButcheR, eastcoast_pete, medsommer und 2 andere
@SpartanerTom
auf den Artikel mit dem Chip. Ja gibt es diese Defekte. Als Käufer möchte ich solche Karte nicht besitzen.
 
Die Leistungsaufnahme könnte potentiell höher ausfallen. Bin gespannt.
 
  • Gefällt mir
Reaktionen: racer3
@aklaa Das ist gelinde gesagt Unfug. Als Endkunde ergibt sich für dich in Sachen Defekten kein statistisch relevanter (wenn überhaupt) Unterschied. Selbst die 4090 nutzt z.B. nicht den AD102 Vollausbau. Bei flächenmäßig so großen Chips wird sowas häufig im Voraus auch mit einkalkuliert.
 
  • Gefällt mir
Reaktionen: Monarch2, ThirdLife, Rockstar85 und 7 andere
Interessant ist höchstens dass es sich für NV mittlerweile lohnt fast 50% des chips zu salvagen. Von wegen hohen Produktionskosten der Ada chips und dadurch Preise rechtfertigen....
Aber natürlich typisches Vorgehen, vor allem gegen Ende des Produktlebenszyklus.
 
  • Gefällt mir
Reaktionen: JarlBallin, Chri996, racer3 und 2 andere
Die Leistungsaufnahme (auch mit UV) würde mich tatsächlich auch interessieren
Da für mich eine 4070 das wohl technisch sinnvollste Upgrade zur 1660S (4060 mit PCIe3 ist halt blöd) darstellt und ich gern so wenig Leistungsaufnahme wie möglich habe, dürfte das auch noch bei der Kaufentscheidung eine Rolle spielen.
 
Leider hat die 4070S die 4070 obsolet gemacht. 15-20% mehr Leistung für unter 100€ mehr ist Top, gerade bei nvidia karten ist das fast geschenkt.
 
Peterwimmer schrieb:
Leider hat die 4070S die 4070 obsolet gemacht.

Nicht wirklich.

1. bei Custom-Karten wie der Asus TUF ist der prozentuale Aufpreis ähnlich wie die Leistungssteigerung,
2. der eventuelle Flaschenhals 12 GB bleibt gleich,
3. die "alten" 4070 haben meistens noch einen 8-Pin-Anschluss, Adapterpfusch wegen 12VHPWR entfällt.
 
  • Gefällt mir
Reaktionen: conglom-o, usernamehere, anarchie99 und 3 andere
aklaa schrieb:
@SpartanerTom
auf den Artikel mit dem Chip. Ja gibt es diese Defekte. Als Käufer möchte ich solche Karte nicht besitzen.
Angst essen Seele auf...
Ist deine Meinung, die darfst du haben, fachlich fundiert ist sie aber halt nicht...
 
  • Gefällt mir
Reaktionen: Monarch2, ThirdLife, medsommer und 8 andere
Zurück
Oben