News Nvidia Turing: Angebliches PCB der GeForce GTX 2080 fotografiert

Das wird zu 100% eine Quadro, die NVLink Bridge kostet alleine schon über 600€
 
  • Gefällt mir
Reaktionen: Lübke82 und usb2_2
Naja, ein „Monsterchip“ ist das nicht gerade.
NV versucht hier die Mehrleistung der neuen Generation wieder einmal künstlich gering(er) zu halten um die Karten perfekt ins bestehende Portfolio einzufügen.
 
IMG-20180802-WA0002.jpg
Diesen leak gab es im Juni irgendwann.
Ich möchte nur mal auf die Stromanschlüsse und NV-Link hinweisen. Ja das ist noch ne Prototyp Karte ohne Bildausgabe aber es ist realistisch...

Glaubt mir oder nicht aber ich sage schon seit wochen das Nvidia bei Gaming Karten auf NV-Link setzen wird. Und es wird noch größere Ausbaustufen geben als der aktuelle Leak in der News.
 
  • Gefällt mir
Reaktionen: kadda67 und Zockmock
duskstalker schrieb:
ich weiß nicht genau, was wir hier sehen - aber es sieht teuer aus.


Wird es doch so oder so .. :evillol:
 
Könnte mir auch vorstellen, dass das eine Tesla oder quadro Karte ist. Warum sollte Nvidia NV Link verbauen? Sie haben Multi GPU ja beerdigt und für ein paar Benchmarkrekordjäger wird man wohl kaum NV Link Anschlüsse verbauen. oder doch?

Oder bringt Nvidia eine abgespeckte (günstigere) NV Link alternative? Ansonsten eigentlich alles wie erwartet.

Ein anderer Grund für NV Link und 8 + 6 Pin könnte auch sein, dass Nvidia einfach ein Turing PCB entwickelt hat, was auf vielen Karten verwendet wird. (Ist ja in anderen Branchen nicht unüblich)
 
afaik hat nV nur SLI beerdigt.
 
anexX schrieb:
Oha - müssen Spiele dann in Zukunft NV-Link unterstützen oder wie hat sich Nvidia das gedacht ?

Naja, angeblich soll ja in den naechsten Jahren bei nVidia die Raytracing Unterstuetzung technisch ausgebaut werden und da boeten sich dann Multi-GPU Ansaetze - per schnellerem nV-Link anstelle SLI - an, wenn man das denn gut genug (abseits von Mikrorucklern/Lag, usw.) damit gebacken bekommt.

Nicht ganz unwesentlich duerfte dann auch die neue Microsoft DXR API dahingehend sein.

Gut moeglich, dass die gemunkelte Premium-Variante der GTX 1180 (GTX 1180+) dann eben mit doppeltem GDDR6 Speicher (16GB) kommt, was sich nVidia preislich natuerlich vergolden liesse.

So gesehen koennte es sein, dass die GTX 1170 und die regulaere Version einer 1180 mit immer noch dann laeppischen 8GB auskommen muessten, was arg spaerlich/geizig waere und die Langlebigkeit einer solchen Karte massiv herabsetzten duerfte.

Es gibt nicht wenige, die ein auf Langlebigkeit abziehlendes Kaufverhalten an den Tag legen (nehme mich selber da auch nicht aus) und mindestens 12 GB an Speicher erwarten (auch angesichts von FFXV und wer weiss, was demaechst an aktuellen Spielen noch massiv Speicher fressen wird, Shadow of the Tomb Raider vielleicht?).

Inwieweit man diese PCBs wirklich Ernst nehmen kann, steht in den Sternen ;) ...

Dass der neue VirtuaLink Port als neue Standard-VR-Schnittstelle in der Turing-GPU-Generation kommen wird, halte ich aber fuer ziemlich gesichert/ein "offenes Geheimnis".
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Marc53844
Ich glaube nicht an eine Quadro/Tesla, sondern schon an ein GeForce PCB. Guckt euch doch mal an wo die Stromanschlüsse sind, die Quadros haben die am Ende des PCBs, nicht oben. Oben sind die afaik nur bei den GeForce Karten.

Könnte es nicht trotzdem ein BigChip PCB sein? Der Chip muss doch nicht zwangsweise so viel kleiner als der Träger sein, oder liege ich da falsch?

PS: Hat jemand die Maße eines 6 oder 8 Pin Steckers zur Verfügung? Ich würde gerne etwas rechnen ;-)
 
Caramelito schrieb:
Glaube ich nicht, es gibt kaum Spiele, die mehr als 10GB brauchen.

Keiner der aktuellen AAA Titel kommt bei mir überhaupt auch nur auf 8 GB Verbrauch. Konkret fällt mir nur Wolfenstein ein, wenn du nach den Ultra Settings die Texturqualität nochmal manuell aufs Maximum stellst. Da belegt das Spiel dann meistens bei so um die 7GB.
Viele Spiele brauchen sogar deutlich weniger - Witcher 3, Max Settings, 4K, dümpelt meistens so bei 2 GB herum.
 
stoneeh schrieb:
Keiner der aktuellen AAA Titel kommt bei mir überhaupt auch nur auf 8 GB Verbrauch. Konkret fällt mir nur Wolfenstein ein, wenn du nach den Ultra Settings die Texturqualität nochmal manuell aufs Maximum stellst. Da belegt das Spiel dann meistens bei so um die 7GB.
Viele Spiele brauchen sogar deutlich weniger - Witcher 3, Max Settings, 4K, dümpelt meistens so bei 2 GB herum.

Es gibt schon ein paar Spiele (gab auch hier auf CB einen Test), da sollte man schon eine 8GB Graka haben.

Mir wäre es auch nie aufgefallen, dass ich am Limit bin, aber wenn ich dann eine 1180 hätte, die schneller als eine 1080ti ist und auf 4k zocken würde (oder eben DSR nutze), dann bräuchte man das vllt., vor allem in neuen Games.
Selbst dann wohl keine 12 GB, aber wer weiß..
 
  • Gefällt mir
Reaktionen: meav33
Thanok schrieb:
Hat jemand die Maße eines 6 oder 8 Pin Steckers zur Verfügung? Ich würde gerne etwas rechnen ;-)

8Pin: 17,5mm breit
6Pin: 13mm

Ich weiß glaube ich worauf du hinaus willst ;)

Achja, Aussparung im neuen Kühler: Ca. 40mm
 
  • Gefällt mir
Reaktionen: Alexus6677 und Thanok
Mich erstaunen nicht die wenigen spekulativen News welche nur zur Gerüchtküche taugen, sondern eher wie rigoros und effizient es NV schafft, alles geheim zu halten.
Die letztens in der Presse verpönten und juristisch sehr fragwürdigen Knebelverträge scheinen in der Hinsicht richtig gut zu wirken.
Das zeigt auch wie mächtig NV geworden ist. Einfach nur gruselig.
 
***** schrieb:
Die letztens in der Presse verpönten und juristisch sehr fragwürdigen Knebelverträge scheinen in der Hinsicht richtig gut zu wirken.
Das zeigt auch wie mächtig NV geworden ist. Einfach nur gruselig.
Es ist gruselig wenn eine Firma ihr Hoheitsrecht über die Infos zu ihren Produkten hat? Oo Das sind bis zur Veröffentlichung von Nvidia Geschäftsgeheimnisse, die bei vorzeitigem Bekannt werden unabsehbare folgen für Nvidia haben könnten. Natürlich ist es ihr Recht, dass das Geheim bleibt, bis das Produkt der Öffentlichkeit vorgestellt wird.

Manche Leute haben ein Rechtsverständnis...
 
  • Gefällt mir
Reaktionen: Marc53844, Postman, v_ossi und 6 andere
Nvidia ist mir sowieso egal. Die werden von mir nicht mehr unterstützt seit dem GPP. Darum auch eine Vega 64 in meinem PC, die werde ich auch solange nutzen bis AMD's übernächste Grafikkartengerationen zum Verkauf steht.
 
  • Gefällt mir
Reaktionen: Strikerking und Alexus6677
Thanok schrieb:
Ich glaube nicht an eine Quadro/Tesla, sondern schon an ein GeForce PCB. Guckt euch doch mal an wo die Stromanschlüsse sind, die Quadros haben die am Ende des PCBs, nicht oben. Oben sind die afaik nur bei den GeForce Karten.
Auf den Quadro und Tesla PCBs sind die Lötpunkte für die Stromanschlüsse meistens gleich. Am hinteren Ende sitzt dann meistens nur ein weiterer Lötpunkt für einen 8 pin Anschluss. Aber du hast recht, die letzten Tesla Karten hatten da eine andere Konfiguration, was für eine GeForce spricht.

***** schrieb:
Das zeigt auch wie mächtig NV geworden ist. Einfach nur gruselig.

Was ist daran gruselig. Das schaffen andere Firmen auch problemlos! Geheimhaltung ist ein wichtiger Faktor. Besonders wenn man wie Nvidia in einem hart umkämpften Wachstumsmarkt agiert und dort ziemlich weit an der Spitze steht.

Sind jetzt alle Firmen die eine Funktionierende Geheimhaltung haben gruselig? Das ist mehr ein Beweis von gutem Management. Es ist Ihr gutes Recht selbst zu entscheiden, wann Sie Informationen rausgeben!

Oh ich habe vergessen.... es ist ja das Böse Nvidia, also muss es ja schlecht sein. ^^

Natürlich gibt es auch Firmen wie Apple, die Leaks ganz bewusst zu Marketingzwecken selbst verbreiten :D
 
NV Link ist doch echt realistisch. Solang der Anschluss kein Geld kostet und SLI beerdigt ist, werden die paar Freaks es zu schätzen wissen, ohne dass NV Mehrkosten entstehen.
 
***** schrieb:
Mich erstaunen nicht die wenigen spekulativen News welche nur zur Gerüchtküche taugen, sondern eher wie rigoros und effizient es NV schafft, alles geheim zu halten.
Die letztens in der Presse verpönten und juristisch sehr fragwürdigen Knebelverträge scheinen in der Hinsicht richtig gut zu wirken.
Das zeigt auch wie mächtig NV geworden ist. Einfach nur gruselig.


Komisch, da es genug Seiten gibt die es nicht unterschrieben haben müssten ja schon viel viel mehr Infos bekannt sein oder nicht?

Apple und andere Hersteller schaffen es auch ihre "Neuigkeiten" gut geheim zu halten. Ist halt einfach nur eine Sache wie man es angeht. Müssen dann wohl auch ALLE Knebelverträge haben.
 
Zudem sind vier Monitoranschlüsse zu sehen.

Einer hat eine doppelte Pad-Reihe; keine through-hole-DVI-Pins mehr.
Würde meinen DP 1.2-Switch, der heute ankam, wieder überflüssig machen :hammer_alt:
 
Zuletzt bearbeitet:
Mustis schrieb:
Die 1080 hat auch 8 GDDR Flächen. Und wieviel Speicher hat die? :rolleyes:

Sieht aus wie ein leicht verändertes 1080 PCB. Abgesehen von den Stromanschlüßen.
Ich würde eher davon ausgehen das sie sich mit ihrer Produkt Politik treu bleiben und wie gehabt auf ein 256 Bit Speicherinterface mit 8 GB setzen.
Ergänzung ()

katschung schrieb:
Anhang anzeigen 698199
Diesen leak gab es im Juni irgendwann.
Ich möchte nur mal auf die Stromanschlüsse und NV-Link hinweisen. Ja das ist noch ne Prototyp Karte ohne Bildausgabe aber es ist realistisch...

Glaubt mir oder nicht aber ich sage schon seit wochen das Nvidia bei Gaming Karten auf NV-Link setzen wird. Und es wird noch größere Ausbaustufen geben als der aktuelle Leak in der News.
Ich tippe eher auf ein Prototypenboard zum Austesten einer bestimmten GPU. Ich glaube aber kaum das es sich um die gleiche GPU handelt denn die Speicheranordnung deutet eher auf ein 384 Bit Speicherinterface.
Es könnte natürlich auchs ein das es sich um ein altes Testboard handelt.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: GERmaximus
Das mit den 16GB VRam bei der 1180 dürfte schon stimmen.
Ich schätze mal das in anbetracht der im nächsten Jahr anstehenden AMD Karten, die 1170 mit 8GB VRam und die 1160 auch mit 8GB VRam erscheinen werden.
 
  • Gefällt mir
Reaktionen: -Ps-Y-cO-
Zurück
Oben