News TU102, TU104, TU106: Nvidias Turing-Chips im (Größen-) Vergleich

RYZ3N schrieb:
Bei den Eckdaten und zu dem Preis erwarte ich eigentlich einen „Game Changer“ wie seinerzeit die GeForce 8800 GTX
Und genau das scheint sehr unwahrscheinlich. Schön wäre es trotzdem.

Die 8800 war auch ziemlich groß, hatte aber nicht so viel Platz für andere Sachen genutzt. Diesmal ist halt viel anderes mit drauf. Eine reine gaming Karte, also quasi Pascal, in der Größe mit 512 bit 16 GB GDDR6 wäre sicher einiges schneller. Sowas hätte ich gerne.
 
Die hätte mindestens 4x mehr RT cores raufpacken müssen das es sich rentiert mit RT. Keine ahnung of Tension Cores auf dafür benötigt werden.
Sind recht uninteressante karten wenn man den Preis der 1080TI mit der 2080TI vergleicht. Besonders wer sich in den letzten 2 Wochen sich eine TI für 600 greifen konnte.
 
usb2_2 schrieb:
Und genau das scheint sehr unwahrscheinlich

Die Präsentation von nVidia hat doch nun schon gezeigt dass es bei dieser Kartengeneration Gamechanger-Potenzial gibt. Raytracing KANN der Gamechanger werden.
Oder würdest du ernsthaft sagen wollen dass neue Karten ein Gamechanger dann werden, wenn sie genau das gleiche können wie die 3 Generationen vorher auch, nur eben schneller?
 
der TU106 ist ein halber TU102 nur mit einem größeren Speicher Interface.
Also wenn etwas aus der Reihe fällt, dann eher der TU104. Aber den gibt es wohl wegen der Profi Lösungen.
 
DocWindows schrieb:
Raytracing KANN der Gamechanger werden.
Es ist jetzt schon ein Gamechanger. Überlegen wir mal, wann es das letzte Mal wirklich ein revolutionäres Feature im GK-Markt gab? Mir fällt da nur Adaptive Sync ein. Ansonsten war in den letzen 10 Jahren kaum neues zu sehen. Was viele immer wieder vergessen, daß bisherige Grafiken mit Schatten, Spiegelungen und Lichtspielen immer mehr oder minder gefakted wurden, um ein annäherndes performantes Spielerlebnis zu bieten. Das fällt fast komplett weg, sobald genügend Rechenpower vorhanden ist. Die Spieleengines werden sich vereinfachen, und die Rechenergebnisse werden viel besser und realistischer aussehen. Natürlich sollte klar sein, daß ein neues Feature nicht über Nacht kommt, und die Performance hier anfangs eher mau sein wird.

Interessanter wird dann eher DLSS, und die Anwendung von Tensor Cores für KI/AI. Künstliche Spieler mit Eigenintelligenz wird ein viel heißerer Kandidat. In allen Strategiespielen schummeln alle KIs, indem sie z.B. schneller zu Ressourcen kommen. Ansonsten sind KIs in Strategiespielen schlichtweg dumm, und jeder, der intensiv spielt, kennt das Problem, daß die KI-Spieler mit diversen Tricks gut zu besiegen sind. Wenn man hier durch Deep Learning bessere künstliche Spieler auf verschiedenen Niveaus erzeugen könnte, wäre das in meinen Augen ebenso ein großer Gamechanger. Von den Shootern noch gar nicht gesprochen.
 
PHuV schrieb:
Es ist jetzt schon ein Gamechanger.

Nein, Raytracing ist ganz sicherlich (noch) kein Gamechanger bzw. es muss erst einmal den Beweis antreten ein Gamechange sein zu können.

Wir reden hier auch nicht von der Raytracing Technologie an sich, welche sicherlich ein wirklich guter Schritt ist, um die Grafikqualität von Schatten, Spiegelungen und natürlichen Lichtspielen auf das nächste Level zu heben und realistischer darzustellen.

Wir reden von dem Produkt, den Produkten, der GeForce RTX 2070, 2080 und 2080 Ti.

Eine GeForce 8800 GTX war ein Gamechanger, denn man konnte plötzlich in zwei Auflösungen höher spielen und dennoch 4xAA/16xAF nutzen.

Die GeForce 8800 GTX (~ 40 fps) hat z.B. in Oblivion auf 2560x1600 Pixeln 4x so viele fps auf den Monitor gezaubert wie die 7900 GTX (~ 10 fps).

PHuV schrieb:
Das fällt fast komplett weg, sobald genügend Rechenpower vorhanden ist.

Deshalb hätte man Raytracing auch besser noch 1-2 Generationen lang reifen lassen sollen. Wenn gerade eine 2080 Ti ausreichen sollte um RT-Features hinzuschalten zu können, dann muss man halt feststellen, dass eben noch nicht "genügend Rechenpower vorhanden ist."

Wie ich schon sagte, alles unter Vorbehalt. Es ist auch möglich das die RTX-Serie überrascht und wirklich 60% schneller ist als die Vorgängergeneration. Allein der Glaube daran fehlt mir noch ein wenig.

Ich bin der Erste der sich freuen würde, würde NVIDIA einen echten Gamechanger releasen.

Liebe Grüße
Sven
 
  • Gefällt mir
Reaktionen: usb2_2 und Ceberus
Shoryuken94 schrieb:
UHD ist und bleibt halt eine Nische beim Gaming. Es macht aktuell halt wenig Sinn, dass man den Fokus nur darauf legt.

Neue Features / Bildqualität bringen hingegen allen Leuten mehr. [...]

Eine 1000€/$ GPU nur zum zocken zu kaufen ist wahrscheinlich eine noch größere Nische. Davon ab rechtfertigt sich der 4k Monitor Kauf bei jedem Blick darauf.

Aber ich würde sogar so weit gegen und behaupten, dass sich die beiden Nischen zu großen Teilen überlagern.

Und ob es mehr bringt auf eine RTX Karte umzusteigen um ein paar Raytracing Effekte zu haben, als auf einen 4k Monitor mit ~32 Zoll sei mal dahingestellt.

Persönliche würde ich da immer den Monitor und die höhere Auflösung vorziehen. Raytracing kommt schon von ganz alleine. Nur in meinen Augen noch nicht in dieser Generation mit den zur Zeit damit verbundenen Einschränkungen*.

*Preis und (basierend auf den Gerüchten) Auflösung und Framerate.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Ceberus und SVΞN
Ich glaube fast nicht das diese Generation eine Sinvolle Alternative zu meiner GTX 1050 TI bieten wird und die leistung passt für mich auch noch
 
stoeggich schrieb:
Ich glaube fast nicht das diese Generation eine Sinvolle Alternative zu meiner GTX 1050 TI bieten wird und die leistung passt für mich auch noch

Ich bin vielmehr gespannt darauf, wie NVIDIA mit dem Preisbereich(en) unterhalb der GeForce RTX 2080 Ti, 2080 und 2070 verfahen wird. Welche GeForce GTX 10xx wird zu welcher GTX 20xx? Wird alles unterhalb der GeForce RTX 2070 "nur" zur "GTX" 20xx? Sind alle Karten unterhalb der RTX 2070 nur umgelabelt oder wird's auch kleinere neue Chips geben? Wie sieht die Preisgestaltung unterhalb von 1.250 Euro (2080 Ti), 849 Euro (2080) und 639 Euro (2070) aus? Eine RTX/GTX 2060 kann ja auch nicht plötzlich 250 Euro günstiger sein als eine 2070 ... Fragen über Fragen! :)

Naja, jetzt warten wir erstmal die Tests zur 2080 Ti, 2080 und 2070 ab und dann sehen wir mal weiter.

Dennoch finde ich es merkwürdig, dass das Portfolio in den Preisklassen von 200-400 Euro noch völlig unklar ist.

Liebe Grüße
Sven
 
  • Gefällt mir
Reaktionen: stoeggich
v_ossi schrieb:
Eine 1000€/$ GPU nur zum zocken zu kaufen ist wahrscheinlich eine noch größere Nische.

Scheint mir auch so. Der Hersteller muss gut ausloten welche Preise die Käufer bereit sind zu zahlen. Greift man dabei zu hoch, verkaufen sie sich nicht und greift man zu tief, dann hat man Chancen mehr Geld rauszuholen verpasst.

Diesmal scheint NVidia aber zu hoch gegriffen zu haben. Andererseits hätte ich nicht geglaubt viele würden mehr als 1.000 EUR für ein Handy ausgeben, selbst mit einem angebissenen Obst auf dem Gehäuse.

Schauen wir mal.

Meine Schmerzgrenze lag ohnehin bei 200 EUR und ich kann sehr gut warten. :)
 
pmkrefeld schrieb:
Numa spielt bei einer GPU gar keine Rolle :rolleyes:
Es nicht darum eine Art SLI auf ein Package zu kleben, sondern darum die einzelnen Bestandteile einer GPU separat zu belichten. Auf diese Weise dürften sich Chips realisieren lassen die sehr viel größer sind als alles was wir bisher gesehen haben. Stelle dir mal vor statt eines Riesenchips mit 8192 Shader 4 Chips mit jeweils 2048 zu belichten und dann auf ein Package zu packen.

Was ich nicht beurteilen kann ist ab welcher Größe die Lichtgeschwindigkeit einem einen Strich durch die Rechnung macht und die durch die Schiere Fläche die Latenzen innerhalb des Chips zu hoch werden.
Natürlich spielt NUMA eine Rolle oder wäre ein Speicherzugriff von einem Chip zum Speicher eines völlig anderen Chips etwa gleich schnell?
Es gibt ein etwas älteres Forschungspaper von Nvidia in diesem Bezug, die Quelle und eine kleine Ausführung von mir kann man hier lesen:
http://extreme.pcgameshardware.de/n...ect-als-nv-link-konkurrent-4.html#post9493641

Wenn die Unternehmen soweit sind, werden sie das Konzept auch umsetzen, aktuell scheint man nicht dort zu sein, wenn Nvidia weiterhin große GPUs baut und auch AMD erst einmal eine Absage bei Navi erteilt hat.
 
Locuza schrieb:
Natürlich spielt NUMA eine Rolle oder wäre ein Speicherzugriff von einem Chip zum Speicher eines völlig anderen Chips etwa gleich schnell?

Ja, der Zugriff würde wie bei einem einzelnen chip aussehen, daher kein Numa.
Wie gesagt mir ging es nicht darum mehrere Chips zu verbinden sondern 1 Chips aus mehreren Bauteilen herzustellen.
 
pmkrefeld schrieb:
sondern 1 Chips aus mehreren Bauteilen herzustellen.
Aber da ist ja genau das von ihm aufgezeigten Problem. Das geht nicht, solange es da keine größeren Latenzen zum Speicher gibt. Selbst wenn die Controller alle auf einem Chip liegen und der dann mit den 2 bis 20 anderen mit Kernen kommuniziert ist das trotzdem noch zu langsam.

Anders hingegen mit gut umgesetzten async compute und DX 12 da wären ganz viele Chips dann sogar möglich, da man die Recheneinheiten ja eh unabhängiger ansprechen würde. Also wenn RT ganz seperaten laufen kann und die Tensor cores auch, kann das sogar klappen, sonst wird das nicht.
 
usb2_2 schrieb:
Aber da ist ja genau das von ihm aufgezeigten Problem. Das geht nicht, solange es da keine größeren Latenzen zum Speicher gibt. Selbst wenn die Controller alle auf einem Chip liegen und der dann mit den 2 bis 20 anderen mit Kernen kommuniziert ist das trotzdem noch zu langsam.

Müsste das Problem dann bei GDDR-Speicher nicht noch viel schlimmer sein?
 
pmkrefeld schrieb:
Ja, der Zugriff würde wie bei einem einzelnen chip aussehen, daher kein Numa.
Wie gesagt mir ging es nicht darum mehrere Chips zu verbinden sondern 1 Chips aus mehreren Bauteilen herzustellen.
Du musst ja mehrere Bauteile miteinander verbinden und hier kann sich nur kein NUMA-Charakter ergeben, wenn alle Bauteile ähnliche Zugriffszeiten bei egal welchem Datenfluss haben.
Das heißt der Interconnect müsste ähnlich hohe Bandbreiten zwischen den Bauteilen besitzen, wie er gerade bei einem Chip tut und das schaffst du mit Package-Traces auf jeden Fall nicht, mit Siliziumverbindungen dann schon, aber dafür müssen attraktive Packaging-Methoden zu besseren Preisen bereitstehen.
Aktuelle Interposer müssten je nach Zielgröße riesig sein.

Im verlinkten Forschungspaper hat man stattdessen die Bauteile/Chips durch das Package verbunden und mit verbesserten Cache- und Scheduling-Mechanismen den NUMA-Charakter soweit abgeschwächt, dass die Performance noch gut war und sich das Ganze gelohnt hat.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: pmkrefeld
Aldaric87 schrieb:
Niemand hat nVidia gezwungen eine "nicht ausgereifte" Technik in den Consumer-Markt zu zwängen, anstatt sie im Profi-Segment reifen zu lassen. So sind sie selbst Schuld das der Chip so riesig ist. (aber für viele Spieler kaum Mehrwert bietet)

Du meinst so wie der HBM Speicher bei den Vega GPU's? Außer teuer nichts gewesen. Die 12 Tflops Rechenleistung kommen ja kaum an (in Games!)
Mit GDDR wäre Preis/Leistungs mäßig vl wenigstens was gegen Nvidia gegangen.

2019 kommt der Polaris refresh... Eine High End Variante ist erst garnicht geplant...
Vega wird mit dem 7nm shrink wohl nicht mehr für den gaming markt kommen...

Für 2020 muss man hoffen, dass Navi oder Intel (naja mal schaun) was brauchbares abliefert. Solange hat Nvidia das Monopol bei High-End.
...oder anders ausgedrückt Nvidia ist AMD mindestens 4 Jahre voraus im Gaming Sektor. (Die 1080 Ti Leistung von 2016 gibts frühestens 2020 bei AMD)
Vieleicht sieht ja auch deswegen Intel seine chancen im GPU Markt... Ich frag mich zwar wie die mithalten wollen wenn sie nichtmal Ihre 10nm zum laufen bekommen... aber das ist ihr Bier.

Was die 2080 (Ti) wirklich kann werden wir nächste Woche wissen... Auf jeden Fall die schnellste GPU bis zum nächsten Turing refresh... Die Preise die man bereit ist zu zahlen muss jeder mit sich selbst vereinbaren.

Raytracing ist mir egal.... jedoch bin ich froh dass es mittlerweile überhaupt Leistungskategorien von 120€(RX 560) bis >1.000€ gibt.
Noch vor paar Jahren war es ja wie in der DDR... auch wenn du genug Bares hattest konnte man kaum was besseres kaufen als den gehobenen Standard. High-End gab es quasi garnicht.
SLI/CF lief ja nie wirklich rund... Lieber 1x High-End eine Karte als 3x den gehobenen Standard mit Microrucklern...
Dem Durchschnitts 1080p Zocker wird ne RX560/RX580 für ~200€ ja reichen.
 
also doch ~30% performance unterschied in RT von tu104 zu tu102. schade, hätte ich net gedacht....


1250€ ist arg viel geld für Cevat sein 2008 gepriesenes hybrid RT.


mal schaun, die gt107 ist wieder storniert. ach 2021 ist noch so lange hin...mit 40 trifft man dinge net mehr geblendet! danke Jensen ;)
 
Puscha schrieb:
Man muss es auch so gut machen wie bei Ryzen...
Ich wüsste nicht welches top personal amd in der richtung hat. Bei ryzen war der mit abstand beste in sachen cpu architektur für 2 jahre bei amd angestellt. Der ist jetzt aber bei intel chefentwickler. Und der vega entwickler auch.
Ergänzung ()

Che-Tah schrieb:
Du meinst so wie der HBM Speicher bei den Vega GPU's? Außer teuer nichts gewesen. Die 12 Tflops Rechenleistung kommen ja kaum an (in Games!)
Mit GDDR wäre Preis/Leistungs mäßig vl wenigstens was gegen Nvidia gegangen.

2019 kommt der Polaris refresh... Eine High End Variante ist erst garnicht geplant...
Vega wird mit dem 7nm shrink wohl nicht mehr für den gaming markt kommen...

Für 2020 muss man hoffen, dass Navi oder Intel (naja mal schaun) was brauchbares abliefert. Solange hat Nvidia das Monopol bei High-End.
...oder anders ausgedrückt Nvidia ist AMD mindestens 4 Jahre voraus im Gaming Sektor. (Die 1080 Ti Leistung von 2016 gibts frühestens 2020 bei AMD)
Vieleicht sieht ja auch deswegen Intel seine chancen im GPU Markt... Ich frag mich zwar wie die mithalten wollen wenn sie nichtmal Ihre 10nm zum laufen bekommen... aber das ist ihr Bier.

Was die 2080 (Ti) wirklich kann werden wir nächste Woche wissen... Auf jeden Fall die schnellste GPU bis zum nächsten Turing refresh... Die Preise die man bereit ist zu zahlen muss jeder mit sich selbst vereinbaren.

Raytracing ist mir egal.... jedoch bin ich froh dass es mittlerweile überhaupt Leistungskategorien von 120€(RX 560) bis >1.000€ gibt.
Noch vor paar Jahren war es ja wie in der DDR... auch wenn du genug Bares hattest konnte man kaum was besseres kaufen als den gehobenen Standard. High-End gab es quasi garnicht.
SLI/CF lief ja nie wirklich rund... Lieber 1x High-End eine Karte als 3x den gehobenen Standard mit Microrucklern...
Dem Durchschnitts 1080p Zocker wird ne RX560/RX580 für ~200€ ja reichen.
Naja, intel hat mit dem ryzen entwickler jetzt jemanden der die neue architektur macht. Und die haben auch den vega entwickler eingekauft. Der hat eventuel von vega gelernt und haut was besseres raus. Außerdem überspringen die 10nm fast und werden sich auf 7 konzentrieren.
 
  • Gefällt mir
Reaktionen: Che-Tah
Zurück
Oben