News Grafikspeicher von Micron: Schnellere 2-GB-GDDR6X-Chips gehen in Serienfertigung

Anakin Solo schrieb:
Laut Heise wird der Samsung GDDR6X Speicher inzwischen als LPDDR4X auf der Webseite gelistet.

Quelle
Ja, da hatte ich sie dann schließlich auch gefunden. Völlig Gaga.
Sind aber immer noch im Sampling status.
Ich bin generell gespannt, was genau dahinter steckt. Es ist schon merkwürdig, dass man seit Ewigkeiten bei 14-16 Gbps steckt und man mühsam auf 18 Gbps kam und urplötzlich 24 Gbps möglich sein sollen. Technologische Änderungen? Oder einfach nur bessere Fertigung? EUV?
 
  • Gefällt mir
Reaktionen: bad_sign
S.Kara schrieb:
Wieso das denn? Nvidia welchselt nun mal vom 8nm Samsung auf 5nm TSMC.

Man kann also pauschal davon ausgehen dass dem so ist, nur wegen dem Wechsel von 8nm auf 5nm? Warum war dem dann bei der RTX2XXX zur RTX3XXX nicht so gewesen? Für mich wäre das ein Kaufgrund wenn eine RTX4080 weniger verbraucht bei deutlicher Mehrleistung als eine RTX3080 zum Beispiel.
 
@meXP Von der 2000er zur 3000er Generation ist die Effizienz schon angestiegen, nur halt nicht so stark weil Nvidia zu Samsung gegangen ist und deren Prozess dem von TSMC deutlich unterlegen ist.

Warum Nvidia damals nicht zu TSMC ist weiß ich nicht, vielleicht hat Samsung ein gutes Angebot gemacht. Aber dadurch konnte Nvidia halt auch deutlich mehr Stück ausliefern.

Jetzt nimmt Nvidia wieder gut Geld in die Hand. Das ist auch nötig um nicht von AMD abgehängt zu werden.
 
S.Kara schrieb:
Jetzt nimmt Nvidia wieder gut Geld in die Hand. Das ist auch nötig um nicht von AMD abgehängt zu werden.
Nein sie nehmen nicht Geld in die Hand zumindest nicht für diese Generation. Hier nehmen sie einfach die Brechstange mit erhöhtem Energieverbrauch. Die 4000er waren mit ~100W weniger verbrauch geplant. Nur ist leider AMD so weit gekommen das sie vor Nvidia gewesen wären und nun muss die Brechstange herhalten weswegen die Effizienz bei Nvidia bescheiden sein wird. Lass mal zu diesem Thread im September zurück kommen, wird bestimmt interessant.
 
Galarius schrieb:
Nein sie nehmen nicht Geld in die Hand zumindest nicht für diese Generation.
Die wechseln zu TSMC, na sicher nehmen sie Geld in die Hand.
Galarius schrieb:
Hier nehmen sie einfach die Brechstange mit erhöhtem Energieverbrauch.
Nur weil der AD102 bis zu 450W ziehen darf heißt das nicht dass alle Karte so viel verbrauchen werden.
Es wird auch Modelle im Bereich 200-250W geben die deutlich Effizienter sind. Ich sehe das Problem nicht.
 
S.Kara schrieb:
@meXP Von der 2000er zur 3000er Generation ist die Effizienz schon angestiegen, nur halt nicht so stark weil Nvidia zu Samsung gegangen ist und deren Prozess dem von TSMC deutlich unterlegen ist.

Warum Nvidia damals nicht zu TSMC ist weiß ich nicht
Ja da bin ich gespannt, ich sehe das angesichts des Speichers den Sie nutzen und vor allem der Brechstangen Methode die sie machen wie mit zB der 3090Ti eher skeptisch. Das ist aber gefühlt und nicht basierend auf Fakten.

Hoffen kann man es ja. Ich habe mehrere Karten gehabt, 3090, 3080Ti/3080 und bin jetzt Final aus verschiedenen Gründen bei der 3070er hängen geblieben. Die Leistung ist ja schön und gut, aber die Abwärme und der Verbrauch in Relation zu dem was man raus kriegt mir nicht mehr Wert gewesen. Der PC war wie ein Heizkörper und das ist bei der 3070 deutlich besser. Natürlich musste ich einbußen bei den FPS usw. machen und die Details etwas runter korrigieren, aber das war einfach nicht mehr schön und das trotz dass ich die AORUS Varianten hatte...

Naja das werden wir vermutlich nie erfahren :D, schauen wir mal!
 
Zurück
Oben