News Nvidia Turing: GeForce RTX 2060 mit 1.920 Shadern und 6 GB Speicher

ZeroZerp schrieb:
Was ich nicht gutheisse, ist der unkontrollierte Start ohne Software, den NVIDIA hier mit der Karte hingelegt hat. Dann die schlechten, fehlerhaften Implementierungen der ersten Varianten, in welchen die Zusatzprozessoren genutzt werden.

Wenn eine neue Grafikkartengeneration mit mehr Rohleistung und ohne neue Features rauskommt, ist es den Käufern nicht recht, wenn neue Features implementiert werden, aber die Rohleistung nicht stimmt auch. Wie soll man es denn allen Recht machen?
 
v_ossi schrieb:
Aber... aber... ich finde die Umsetzung für Konsumenten weiterhin schlecht und unterstelle NVidia in erster Linie Gier.
Wenn man die diversen Techniken (am prominentesten bei Turing eben Raytracing) in den Markt drücken will, macht man das nicht mit 1000€ Karten, die kaum Marktanteil haben.

Deshalb wird es jetzt auch demnächst eine RTX 2060 geben. Sinnvoll finde ich die Entscheidung nicht, weil die Karte eigentlich zu wenig Leistung für diese Technik haben wird. Trotzdem ist es ein wenig wie Playstation VR, Qualitativ eher schlecht aber durch günstigen Preis und große Verbreitung ein Marktöffner.

v_ossi schrieb:
Die Blu-Ray hat Sony beispielsweise mit subventioniertem Konsolen durchgedrückt.

Die Konsolen waren deshalb überteuert und kamen im Vergleich zu Xbox 360 fast ein Jahr später auf den Markt. Damit hat zwar Sony zum Untergang des Konkurenzformats beigetragen, als "guter Beispiel" taugt der Vergleich aber nicht, denn im Grunde genommen hat Sony damals das gleiche getan wie Nvidia jetzt.
 
domian schrieb:
Wenn eine neue Grafikkartengeneration mit mehr Rohleistung und ohne neue Features rauskommt, ist es den Käufern nicht recht, wenn neue Features implementiert werden, aber die Rohleistung nicht stimmt auch.[...]

Hm... ich wüsste nicht, dass sich irgendwer über die Pascal Generation beschwert hätte.

xexex schrieb:
Deshalb wird es jetzt auch demnächst eine RTX 2060 geben. Sinnvoll finde ich die Entscheidung nicht, weil die Karte eigentlich zu wenig Leistung für diese Technik haben wird. Trotzdem ist es ein wenig wie Playstation VR, Qualitativ eher schlecht aber durch günstigen Preis und große Verbreitung ein Marktöffner.[...]

Da wird der Preis entscheiden, ob die Karte als Türöffner taugt oder nicht. Sollte man wirklich (deutlich) über der UVP der 1060er starten, habe ich so meine Zweifel, ob man damit die Massen erreicht.

Zumal PS4 und XBox One dir ja heute regelmäßig für 199-249€ 'hinterher geworfen' werden. Das war zu Pascal Zeiten noch ein bisschen anders, da waren die Konsolen noch nicht ganz so 'runter geritten' und ne 1060 im Vergleich zur Konsole noch günstiger.

Nachtrag: Das ist nicht ganz klar formuliert. Ne 1060 war mMn preislich interessanter, weil sie günstiger war und die Konsolen gleichzeitig noch teurer.
Wenn jetzt ne 2060 für eine (relativ gesehen) deutlich höhere UVP kommt und man sie gegen eine inzwischen günstigere Konsole stellt, sieht das verhältnismäßig noch schlechter aus.

Die PS3 taugt insofern als Beispiel, als das Sony sie anfangs mit Verlust verkauft hat um den Preis in erträglichen Regionen zu halten. Das war kalkuliertes Risiko um die Konsole doch irgendwie interessant zu machen. Genau das macht Nvidia nicht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Revan1710
v_ossi schrieb:
Nachtrag: Das ist nicht ganz klar formuliert. Ne 1060 war mMn preislich interessanter, weil sie günstiger war und die Konsolen gleichzeitig noch teurer.

Ich glaube wir brauchen die Kunden die Konsolen kaufen nicht mit Kunden die sich einen Spiele-PC kaufen in einem Haufen werfen. Zwischen einer Grafikkarte und einer Konsole sehe ich gar keine Konkurrenz.

Sony habe ich nur wegen Playstation VR genannt, weil man hier auch eine Technik auf den Markt gebracht hat, wofür die Hardware eigentlich zu schwach ist und mehr davon absetzen konnte als Oculus und Vive zusammen.

v_ossi schrieb:
Die PS3 taugt insofern als Beispiel, als das Sony sie anfangs mit Verlust verkauft hat um den Preis in erträglichen Regionen zu halten. Das war kalkuliertes Risiko um die Konsole doch irgendwie interessant zu machen. Genau das macht Nvidia nicht.

Die PS3 hat zum start trotz der Subventionierung erheblich mehr als eine Xbox gekostet, Subventionen hin oder her. Rechnest du die Entwicklungskosten bei Nvidia und die riesige Fläche der Grafikchips, kannst du deine Behauptung nicht einfach so in den Raum werfen.

Man könnte auch behaupten die RTX GPUs sind überhaupt so "günstig" auf dem Markt, weil sie letztlich ein Abfallprodukt der professionellen Produkte sind und der eigentliche Preis noch wesentlich höher liegt. Die Wahrheit liegt irgendwo dazwischen.

Sei es drum, ich sehe die RTX 2060 als einen Türöffner in die neue Technik, deshalb würde ich sie mir aber nicht kaufen. Wenn man Interesse an einer neuen Grafikkarte hat und RTX will, sollte man eigentlich mindestens zu einer RTX 2070 oder besser RTX 2080 greifen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: pietcux
ZeroZerp schrieb:
Ist der Preis denn jetzt schon fix?

Offiziell wohl noch nicht, aber die Gerüchte bestätigen die Annahmen der bisherigen Turing-Historie.
Sollte der UVP schlussendlich deutlich tiefer liegen, sieht die ganze Sache natürlich anders aus.

ZeroZerp schrieb:
Wie ich oben geschrieben hab, ist es ein Witz, dass sie nicht erst taktisch in einem aktuellen Spiel die Mesh Shader integriert haben, anstatt dem ganzen Blingbling

Das hätten sie aber doch mit Sicherheit getan, wenn es möglich gewesen wäre - das wäre das Werbeschild schlechthin gewesen. Für mich ist das ein Indiz dafür, dass die Software dafür einfach mehr Zeit braucht. Also werden wohl erst Spiele, deren Entwicklung jetzt beginnt darauf aufbauen können.

ZeroZerp schrieb:
Forschung und Fertigung erzielen mit immer höherem, Aufwand immer geringer werdende Performancesprünge.

Das sehe ich eigentlich garnicht so skeptisch. Turing wird in 12 nm gefertigt, da ist also noch Luft nach oben und trotzdem hat man sich von der Rohleistung ausgehend zu der starken Pascal-Generation verbessern können. Unabhängig von Tensor- und RT-Cores wäre es also eine Generationssprung wie wir in bisher gekannt haben. Lediglich die P/L leidet nun unter den Innovationen. Und das sehe ich so wie @v_ossi : Wären die Aufpreise dieser Innovationen moderat genug, dass ich die breite Masse dafür begeistern kann, habe ich mehr davon als wenn ich versuche, den Profit jetzt zu maximieren. Die lukrative Marktsituation von Nvidia hat aber hier wohl zur Gier verleitet
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .Sentinel.
Revan1710 schrieb:
Und das sehe ich so wie @vossi : Wären die Aufpreise dieser Innovationen moderat genug, dass ich die breite Masse dafür begeistern kann, habe ich mehr davon als wenn ich versuche, den Profit jetzt zu maximieren. Die lukrative Marktsituation von Nvidia hat aber hier wohl zur Gier verleitet
Stimmt schon. Nur ist genau das die große Unbekannte.
Generell Unterstelle ich jeder Firma als eine Grundmotivation einen gewissen Grad an Gier. Ohne das würden Unternehmen in den heutigen Zeiten zerrieben.
Das ist also per Se mal nicht schlecht, sondern sichert auf lange Sicht gesehen das Überleben eines Unternehmens.

So lange niemand die Gesamtkosten für Turing kennt und nicht weiss, was die Nettomarge für NVIDIA bei den Tourings ist, ist es aber auch müßig das zu diskutieren.
Man kann aber davon ausgehen, dass sie Turing weder herschenken noch dass sie aus reiner Gier riskieren, die Dinger so überteuert auf den Markt zu werfen, dass sie sich schlecht verkaufen und einen geringen Verbreitungsgrad erreichen. Denn letzteres ist bei der Einführung neuer Technologien essenziell wichtig, um die Softwareentwickler dafür zu begeistern, das neue Zeug auch tatsächlich zu nutzen.

Die Wahrheit liegt,denke ich, wie immer in der Mitte.
Angenommen die Mesh Shader bringen zukünftig tatsächlich Geschwindigkeitssteigerungen um den Faktor 2 und mehr, dann hätten sie sich auf die Zukunft gerechnet selbst kannibalisiert bzw. die eigenen Preise kaputt gemacht, weil man einen nie dagewesenen Geschwindigkeitsschub, nur aufgrund von Unverständnis der User und mangels Softwarebasis, die diese Funktion unterstützt, zum selbstkostenpreis dazugepackt hätte.

Das ist zwar sehr schön für den User, weil da tatsächlich die Fine Wine Theorie in extremem Maße zum Tragen käme, aber NVIDIA würde sich selbst ins eigene Fleisch schneiden, so viel Mehrleistung zu verhältnismäßig gesehen "Ramschpreisen" auf den Markt zu werfen.

Spekulatius, Spekulatius :)

Grüße
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: domian
Für mich stellt sich da die Frage ob die Mesh Shader parallel zu Raytracing laufen können.
 
6 GB sind aber wirklich Schwachsinn..
 
Paulchen_B schrieb:
6 GB sind aber wirklich Schwachsinn..
Hast du eigentlich den gesamten Thread gelesen? Dann wüßtest du zumindest, daß das schon ca 250 Posts vor dir gesagt haben. Und ob du Recht hast, werden erste Tests zeigen.
 
ZeroZerp schrieb:
Generell Unterstelle ich jeder Firma als eine Grundmotivation einen gewissen Grad an Gier. Ohne das würden Unternehmen in den heutigen Zeiten zerrieben.
Das ist also per Se mal nicht schlecht, sondern sichert auf lange Sicht gesehen das Überleben eines Unternehmens.
Wollte auch eher auf übermäßige Gier hinaus - Dass alle Unternehmen profitgetrieben sind ist ja kein Geheminis.
Natürlich kennen wir keine genauen Zahlen und können daher nur mutmaßen - ich kann aber nur schwer glauben, dass bei solchen Preisanstiegen nicht auch die Marge wesentlich höher ausfällt. Dabei geht man das nicht unwesentliche Risiko ein, Kunden zu vergraulen, dass im Endeffekt für das Unternehmen schädlicher als die geringere Marge ist.

Wenn ich als Kunde dem Unternehmen nicht signalisere, dass es zuviel des Guten wird, dann dreht sich diese Spirale unaufhörlich weiter. Und das mache ich besser früher als später ;)
 
Paulchen_B schrieb:
6 GB sind aber wirklich Schwachsinn..

Habe nicht einen Titel, bei dem in QHD 6GB auch nur ansatzweise ausgereizt sind. Für 4K ist die RTX 2060 bei Games nun auch nicht die 1. Wahl.
 
  • Gefällt mir
Reaktionen: Luxmanl525, .Sentinel. und pietcux
6GB Ram sind optimal. Was anderes macht auch keinen Sinn wenn der Bus 192bit breit ist.
Oder wollt ihr die 2060 auf 12GB sehen?
 
  • Gefällt mir
Reaktionen: pietcux
IceKillFX57 schrieb:
Weil sie die 2GB zusatzlich nicht mehr direkt anbinden könnten. So ein Desaster wie bei der GTX970 wird ja wohl keiner wollen, oder?
 
Hallo zusammen,

@ IceKillFX57

IceKillFX57 schrieb:
Ja weil man zu Schade war bei der Anbindung? Kompression hin oder her...

Nein. Weil man sonst zu nahe an der RTX 2070 gewesen wäre. Ganz einfach. Das ist im Großen und Ganzen der Hauptgrund.

So long...
 
Man hätte doch 224bit bei 7GB machen können? Würde wsl. mehr Leute überzeugen, von einer 6GB Karte aufzurüsten
 
Hallo zusammen,

@ Oneplusfan

Oneplusfan schrieb:
Man hätte doch 224bit bei 7GB machen können? Würde wsl. mehr Leute überzeugen, von einer 6GB Karte aufzurüsten

Hier dürfte ebensolch Gelten, man dürfte auch mit 224 bit zu nahe an die RTX 2070 geraten.

So long...
 
Ich bin vor allem gespannt, wie die 2060 hinsichtlich P/L gegenüber der 1160 bzw. 1660 performt.
 
duskstalker schrieb:
Ich glaub du hast einfach die Aussage nicht verstanden. Oder du kommst nicht damit klar, dass es keine schwarz-weiß Meinung ist.

Ich denke deine Aussagen waren mehr als deutlich. Du hast mehrfach Leute beleidigt und angegangen, quasi als Spinner bezeichnet die auch nur im Ansatz was positives zu Navi gesagt haben. Du meintest mehrfach Nvidia ist Lichtjahre vorraus. Keine Ahnung was man da jetzt missvertehen kann. Das alles zusammen macht jede einzelne Aussage von Dir hier in diesem Thread zur Lachnummer.
 
Zurück
Oben