News Nvidia Turing: Angebliches PCB der GeForce GTX 2080 fotografiert

Solangsam häufen sich die Leaks :) Bald haben wir Gewissheit.
 
  • Gefällt mir
Reaktionen: scornthegreat, DanHot und Kvnn.
Wadenbeisser schrieb:
Ich würde eher davon ausgehen das sie sich mit ihrer Produkt Politik treu bleiben und wie gehabt auf ein 256 Bit Speicherinterface mit 8 GB setzen.
Das lässt einem außerdem noch Raum für einen 16 GB Refresh.
Je nachdem wie die Konkurrenz aussieht kann man sich für nextGen dann "Zeit lassen".
 
Es bleibt spannend, vor allem die NVLink Spekulation klingt höchst interessant.
 
McMOK schrieb:
Das mit den 16GB VRam bei der 1180 dürfte schon stimmen.
Ich schätze mal das in anbetracht der im nächsten Jahr anstehenden AMD Karten, die 1170 mit 8GB VRam und die 1160 auch mit 8GB VRam erscheinen werden.
Das wird angesichts der Speicherpreise, der Sinnhaftigkeit (selbst in 4K gibt es nur eine Handvoll Spiele, die 8 Gb auslasten) und auch der Produkthistorie bei Nvidia bzw. generell zu 99.99% nicht passieren.

Wadenbeisser schrieb:
Ich würde eher davon ausgehen das sie sich mit ihrer Produkt Politik treu bleiben und wie gehabt auf ein 256 Bit Speicherinterface mit 8 GB setzen.
Eben, ich auch. Es ging darum, dass aufgrund 8 GGDR Plätz auf 16 GB spekuliert wird. Was eben angesichts der Tatsache, dass die 1080 diese ebenfalls hatte, absolut keinerlei Bedeutung hat. Irgendwann macht es einfach keinen Sinn mehr den Speicher mit einer 2er Potenz zu erhöhen (was auch im GK Bereich nie wirklich der Fall war, siehe 1080 TI) Den spätestens bei 16 auf 32 GB würde das absolut absurd werden. Eher werden, wenn 2 GBit Steine zum Einsatz kommen, erstmal weniger GDDR Plätze auf dem PCB untergebracht um PCB Platz zu sparen. Die nächsten Performancekarten mit mehr Speicher werden wohl eher 10, höchstens 12 GB haben.
 
  • Gefällt mir
Reaktionen: GERmaximus
katschung schrieb:
Ich weiß glaube ich worauf du hinaus willst ;)
Danke für die Daten:
Fläche Inneres Feld: ca 352mm
Fläche äußere Kontaktierungen: Ca.829mm
Fläche Lötpunkte* Rückseite: Ca. 457mm

Zum Vergleich: Maxwell legte von 294mm in der Mittelklasse auf 398mm zu (+35,4%), die 1080 bringt 314mm auf die Waage
*hier habe ich ab dem Punkt gemessen, ab dem die Lötpunkte eine klare Fläche abgrenzen, und nicht herausstehende Punkte. Definitiv die ungenaueste Messung. Unterschiedliche Distanz zum PCB wurde berücksichtigt.

PS: Auf meinem Handy finde ich das hoch 2 nicht. Denkt es euch bitte dazu;-)
 
  • Gefällt mir
Reaktionen: yummycandy, Hardware_Hoshi und usb2_2
Endlich die ersten PCB-Bilder. Das bedeutet der Launch steht zeitlich näher als gedacht. Viele Informationen bekommt man daraus zwar keine, jedoch ist es besser als nichts.

@Mustis
8GB sind für Ultra-highend zu wenig. Die 1080 Ti hat bereits 11GB GDDR5X verbaut. Das muss überbobten werden oder es schreckt die Käufer ab. Nvidia kann bei einem Upgrade nur auf 12 oder 16GB gehen. Das scheinbar verbaute 256-Bit Interface würde aber nur 8 oder 16GB zulassen. GDDR6 hat je nach Hersteller 1GB und 2GB Kapazität.

Geh lieber davon aus, Nvidia würde für diese Generation "klotzen und nicht kleckern". Die hauen lieber einen fetten Brocken raus und haben ~12-18 Monate Ruhe bis zum 7nm-Refresh.

@Thanok
Ja, dieser Chip scheint größer als der 1080er(~314mm³), jedoch kleiner als 1080 Ti (~471mm²). Das ist soweit ein gesunder Sprung mit hoffentlich guten Performancezuwächsen. Man kann das zumindest nicht mehr als "kleinen Chip" der Mittelklasse bezeichen, die als high-end verkauft werden.
 
  • Gefällt mir
Reaktionen: AlphaKaninchen
Warum? Wenn das nur ein salvage ist bleibt es bei teurer Mittelklasse.
 
Hardware_Hoshi schrieb:
8GB sind für Ultra-highend zu wenig. Die 1080 Ti hat bereits 11GB GDDR5X verbaut. Das muss überbobten werden oder es schreckt die Käufer ab. Nvidia kann bei einem Upgrade nur auf 12 oder 16GB gehen. Das scheinbar verbaute 256-Bit Interface würde aber nur 8 oder 16GB zulassen. GDDR6 hat je nach Hersteller 1GB und 2GB Kapazität
Wie gesagt, ich glaube nicht daran, es ist schlicht und ergreifend unwirtschaftlich im Performancemarkt 16 GB zu verbauen. Viel zu teuer. Eine Ti oder Titan müsste dann ja bereits um die 20 GB bekommen. Wozu? Auf Jahre wird diese Speichermenge nicht benötigt werden. Ich mag mich irren, aber ich kann es mir marktwirtschaftlich einfach nicht vorstellen. Das GDDR6 zum Einsatz kommt im Performance Segment ist im übrigen ebenso spekulativ oder nicht?
 
  • Gefällt mir
Reaktionen: yummycandy und GERmaximus
Mustis schrieb:
Eben, ich auch. Es ging darum, dass aufgrund 8 GGDR Plätz auf 16 GB spekuliert wird. Was eben angesichts der Tatsache, dass die 1080 diese ebenfalls hatte, absolut keinerlei Bedeutung hat. Irgendwann macht es einfach keinen Sinn mehr den Speicher mit einer 2er Potenz zu erhöhen (was auch im GK Bereich nie wirklich der Fall war, siehe 1080 TI) Den spätestens bei 16 auf 32 GB würde das absolut absurd werden. Eher werden, wenn 2 GBit Steine zum Einsatz kommen, erstmal weniger GDDR Plätze auf dem PCB untergebracht um PCB Platz zu sparen. Die nächsten Performancekarten mit mehr Speicher werden wohl eher 10, höchstens 12 GB haben.
Ich sehe das deutlich nüchterner denn nvidia hat im laufe der Zeit selbst bei der Titan den Speicher Vorteil untergehen lassen und das obwohl die Option auf mehr Speicher besteht.
Ich vermute das es weniger um den Bedarf als vielmehr um die Gewinnmaximierung geht. Die Karten nur mit 8 GB zu bestücken ist ganz einfach billiger und sorgt dafür das ihr in absehbarer Zeit der Speicher ausgeht. Ein Grund zum Nachkaufen.
Es darf aber bezweifelt werden das der Preisvorteil an den Kunden weiter gegeben wird.
 
  • Gefällt mir
Reaktionen: bad_sign
@
Mustis

Ja klar werden die Karten teurer, wurde doch schon in diversen News bestätigt.
Außerdem muss Nvidia die kommende AMD Generation mit diesem Release kontern.
 
eselwald schrieb:
Komisch, da es genug Seiten gibt die es nicht unterschrieben haben müssten ja schon viel viel mehr Infos bekannt sein oder nicht?

Die halten aus Symphatie mit den anderen halt ebenfalls den Mund :D
 
des sieht für mich nicht wie eine tesla oder quadro aus wen man bedenkt das die neuen modelle (Pascal generation) jeweils 2 nvlink anschlüsse haben wäre ja ein verkleinerung kontraproduktiv? anderfalls hat man ja mit der pascalreihe quad und triple sli begraben und dual sli im kleineren segment.
Wen man sli benutzen wollte hat man ja auch diese HB bridge benötigt um volles potenzial zu bekommen, es würde mich überhabt nicht wundern wen jetz nvlink der neue trent ist und damit das benutzen von 2 karten endlich mal potenziel verbessert wer weis vielleicht ist ja ab da dan dual karten rechnung in VR möglich oder wirckliche doppelte leistung.
 
@W0lfenstein: Stimmt weil sie ja auch nichts davon hätten, außer so drei Trilliarden Klicks :-) aber sind ja nichts Wert habe ich gehört.
 
Wie wäre es mit 12GB und einfach 192 Bit Anbindung? GDDR 6 wird ja einiges schneller. Quasi doppelt so schnell, wie GDDR 5. Das reicht in der Leistungsklasse um die 1070ti also aus.

Die 16GB dann für die größte Karte mit vollem SI
 
  • Gefällt mir
Reaktionen: GERmaximus
Auch wenn Lötstellen für einen 8 Pin Stecker vorhanden sind, muss am Ende kein 8 Pin Stecker verlötet sein. Es ist auch wahrscheinlich, dass weniger als 10 Phase bestückt werden. Es ist schon oft so gewesen, dass mehr Platz auf den Referenzplatinen eingeplant wurde, am Ende trotzdem nicht alles bestückt wird.
 
d3nso schrieb:
Warum? Wenn das nur ein salvage ist bleibt es bei teurer Mittelklasse.

Ein Chip um oder sogar über 400mm² ist alles andere als klein. Bei 300mm² wie bei GP104 gehe ich evtl. sogar noch mit, aber nicht bei wesentlich größeren Chips. Mehr darf man von einer 1x80er Version nicht erwarten. alles von 450-800mm² ist für die Titan oder Ti-Reihe mit GT102 belegt.

Teure Mittelklasse finde ich daher nicht richtig. Die neue Oberklasse wird zweifellos teuer ohne Ende. Alles darunter müssen wir abwarten.

Mustis schrieb:
Wie gesagt, ich glaube nicht daran, es ist schlicht und ergreifend unwirtschaftlich im Performancemarkt 16 GB zu verbauen. Viel zu teuer. Eine Ti oder Titan müsste dann ja bereits um die 20 GB bekommen. Wozu? Auf Jahre wird diese Speichermenge nicht benötigt werden. Ich mag mich irren, aber ich kann es mir marktwirtschaftlich einfach nicht vorstellen. Das GDDR6 zum Einsatz kommt im Performance Segment ist im übrigen ebenso spekulativ oder nicht?

Es gibt Gedankenspiele mit einer 16-24GB Turing-Titan. Der Preis wäre dann zwar Wucher, aber die Enthusiastenklasse war nie für Sparfüchse.

Ich wundere mich über die GTX 1180+. Entweder diese Karte ist ein Platzhalter oder ein deutliches Upgrade zur "normalen 1180". Spekulieren wir hier entweder auf die übertriebenen 16Gb oder schnellere GDDR6-Ausbaustufe. GDDR6 hat ein große Bandbreite und diverse Geschwindigkeiten. Vielleicht eine Version mit 12-14GBit/s und die höhere mit 16GBit/s.

Erinnere dich wie sehr z.B. AMDs Fiji mit zu wenig RAM belächelt wurde. Die damals 4GB-RAM hätten ausreichen sollen, was dann ausblieb. Nvidia braucht mindestens jeweils 1GB mehr als bei Pascal oder die Unterschiede fallen marketingtechnisch nicht auf.
 
Also 8GB kaufe ich auf gar keinen Fall mehr hoffe das es am Ende 16GB sind bezahl dann auch gerne dafür.
 
Mustis schrieb:
Es ist gruselig wenn eine Firma ihr Hoheitsrecht über die Infos zu ihren Produkten hat? Oo Das sind bis zur Veröffentlichung von Nvidia Geschäftsgeheimnisse, die bei vorzeitigem Bekannt werden unabsehbare folgen für Nvidia haben könnten. Natürlich ist es ihr Recht, dass das Geheim bleibt, bis das Produkt der Öffentlichkeit vorgestellt wird.

Manche Leute haben ein Rechtsverständnis...

Das hast du anscheinend nicht so verstanden wie ich. Natürlich hat NV ein Recht auf Geheimhaltung, das hat hier auch keiner angezweifelt. Das Recht hat NV auch schon immer, nur darf man nicht vergessen, dass Andere auch Rechte haben. Auffällig ist, dass sich ab jetzt anscheinend etwas geändert hat.
Mit "gruselig" meine ich die Macht, die grosse Firmen haben, um solche Ziele ausnahmslos durchzusetzten.
 
Hardware_Hoshi schrieb:
Erinnere dich wie sehr z.B. AMDs Fiji mit zu wenig RAM belächelt wurde. Die damals 4GB-RAM hätten ausreichen sollen, was dann ausblieb. Nvidia braucht mindestens jeweils 1GB mehr als bei Pascal oder die Unterschiede fallen marketingtechnisch nicht auf.
Hatten sie, nur nicht da wo sie stark war. Bei einer Auflösung in Richtung UHD.
Was aber viel wichtiger ist, es waren mit der ersten HBM Generation ganz einfach nicht mehr als 1 GB pro Stack möglich.
 
eselwald schrieb:
@W0lfenstein: Stimmt weil sie ja auch nichts davon hätten, außer so drei Trilliarden Klicks :-) aber sind ja nichts Wert habe ich gehört.

du weist scho , das dies ironisch gemeint war ?
 
Zurück
Oben