News GTX 1060 mit GDDR5X: Gerüchte um GP104-Resteverwertung bestärkt

Ja Nvidia macht das was alle machen würden. Und ist besser als die Chips auf den Müll zu werfen.
 
Chillaholic schrieb:
Das sind offensichtlich Müll-Chips die eigentlich nicht für ne 1080 oder 1070ti gereicht haben.
Statt in der Verschrottung zu landen, werden sie halt als 1060 genutzt.
[…]
Ich mußte bei der Meldung gerade echt mal heftig schmunzeln, kann mir ein Lachen nur schwer verkneifen!
happy15x18.gif

Genau das habe ich damals™ gesagt. Erst Mitte 2016 und zuletzt vor jetzt fast genau zwei Jahren.
Naja, ich will ja nichts sagen, aber …
Smartcom5 schrieb:
Tja, als hätte man es nicht geahnt …
Smartcom5 schrieb:

Ohnehin gab es schon vor knapp zwei Wochen die ersten Gerüchte, daß die Review-Karten der GTX 1060 a) seitens nVidia von Hand cherry-picked sind, b) das sie allesamt im Sweetspot laufen und – was ein absoluter Paukenschlag sein dürfte, c) lediglich bei diesen der GP106 zu finden ist während derweil in freier Wildbahn der GP104 nur per Laser-cut halbiert anzutreffen ist. Das wäre, mit Verlaub, wirklich krass!

A und B ist ja mittlerweile Standard, siehe ASUS und MSI erst wieder letztens – und C? Ich weiß nicht, zuzutrauen wäre es ihnen – womit die Performance zwar in etwa gleich bleiben, allerdings die Effizienz in den Keller gehen und von den avisierten 120W TDP MGCP nicht viel übrig bleiben dürfte …

Lektüre:
SemiAccurate • Is Nvidia’s GP104 based GT1060 real? – Look to the numbers for an answer

Genau das habe ich vor Monaten prophezeit und habe dafür Gelächter und Prügel einstecken müssen – als wäre bei dem Fiasko mit TSMC dieses Jahr nicht absehbar gewesen, daß man auf einem Haufen teil-defekter GP 104 sitzen geblieben wäre … Aber es war ja so realitätsfern, daß nVidia diese Restposten noch zu Geld zu machen sucht. Mancher Leute Weitblick reicht nicht mal bis zum Monitor!

Mcr-King schrieb:
Aber wahrscheinlich wird sie mehr Stom brauchen als eine normale GXT1060 6GB.
Siehe oben. Wird wahrscheinlich ebenso enden, wie seinerzeit auch schon bei der GTX 1060 3 GByte-Variante;
Die kastrierte Chip-Variante verbraucht im Endeffekt aufgrund stark erhöhter Leckströme (teilweise deutlich) mehr. Die 3 GByte-Version hatte ja damals je nach Review auch schon bis zu ±45W an Mehrverbrauch absolut – selbst noch gegenüber der GTX 1060 im Vollausbau mit 6 GByte. Und im Übrigen (insbesondere siehe Spoiler) …
Smartcom5 schrieb:

Stromverbrauch!
Wie bitte? Die Karte ist um etliche Shader kastriert, hat um die Hälfte weniger VRAM zu versorgen, und verbraucht trotzdem mehr als die 6-GByte-Version. Bitte, was?! Der Verbrauch der für eine beschnittene, solch schwache Karte – bei der ja erwiesenermaßen nur die Hälfte des VRAMs auf der Haben-Seite zu Buche schlägt und zudem die GPU weniger Einheiten befeuern muß – exorbitant und unerklärlich hoch liegt, wird wieder in‘s beste Licht gerückt:
„Unter Last genehmigt sich der Testrechner im Durchschnitt 192 Watt und damit vier Watt mehr als die GeForce GTX 1060 Founders Edition mit dem doppelten Speicher. Der Grund dafür ist in den leicht höheren Taktraten der GeForce GTX 1060 3 GB Dual OC. Das überwiegt den positiven Effekt aus weniger VRAM und weniger Shadern.“
— Zitat ComputerBase

[…]

@Wolfgang
Warum findet die offensichtliche Trickserei nicht ein einziges Mal Erwähnung? Das ist arglistige Täuschung und das wißt ihr!

Wieso findet ihr die extrem erhöhte Stromaufnahme im Vergleich zum 6-GByte-Modell nicht Besorgnis erregend und tut das lapidar mit dem höheren Takt ab? Der höhere Takt kann doch unmöglich den Verbrauch der fehlenden 3 GByte kompensieren und sogar überschreiten?! Das sind lediglich 4,9% beim Basis-Takt respektive 4,6% beim Boost-Takt, welche stärker in‘s Gewicht fallen als die Leistungsaufnahme von 3 GByte GDDR5. Ist das euer Ernst? Mit der Karte stimmt doch etwas nicht!


In diesem Sinne

Smartcom
 
  • Gefällt mir
Reaktionen: Mcr-King, duskstalker und GERmaximus
Was bedeutet das eigentlich für das Endprodukt? Gibt es irgendwelche Vorteile / Nachteile gegenüber einem herkömmlichen GP106? Wie siehts mit dem Stromverbrauch aus?
 
Ich hätte es als sinnvoller empfunden die "1080 als 1060"-Chips nicht ganz so hart zu beschneiden, sondern z.B. mit 1536 Shadern zu bringen. Über den Takt könnte Nvidia diese Karte dann als 1060ti genau zwischen der alten 1060 und der 1070 und über der 590 platzieren. Aber vielleicht sind dafür nicht genügend Chips übrig.
 
Das würde ja zu meinem Einwurf von gestern zur RX 590 passen, ob nVidia jetzt noch schnell eine GTX 1060 Ti auf den Markt wirft.

Platz ist ja wirklich reichlich zwischen 1060 und 1070.
Und auch was den Preisbereich angeht, wäre knapp unter 300 Euro bei einer Leistung oberhalb der 590 locker Platz.
 
RYZ3N schrieb:
Gegen diese Resteverwertung ist pauschal ja nichts einzuwenden, wenn NVIDIA sich dazu entschließen würde, eine 1060 Ti mit mehr Shadern und 15-20% mehr Leistung bringen würde.
Damit würde man aber der (irgendwann, wenn das alte Zeug verramscht ist) kommenden 2060 ordentlich das Wasser abgraben. Wo hätte diese dann noch eine Daseinsberechtigung?

Aber an und für sich: Die Lagerbestände müssen echt enorm groß sein, wenn man halbdeaktivierte Chips verhökert. Ich glaube kaum, dass es sich hier nur um teildefekte handelt, die man bis zum Schluss gebunkert hat.
Man bekommt die Chips anderweitig schlicht nicht los, ohne den Markt kaputt zu machen, auf dem man gerade selbst die Preise enorm verteuert hat. eine 1080 für 300 Euro? Das wäre ja ein Schlag ins Gesicht der Lemminge die (teilweise sogar blind) die aktuellen 2000er Modelle gekauft haben.
 
  • Gefällt mir
Reaktionen: Mcr-King, Smartcom5 und aldaric
Oder man nimmt einen GP104, lässt 1664 oder 1792 Shader aktiv, lötet 7gb GDDRX drauf, nimmt den Zauberstab und ruft laut „Rebrandus“, Zack ist die GTX2060 geboren.
 
  • Gefällt mir
Reaktionen: Mcr-King
Zurück
Oben