News Samsung: GDDR6 mit 2 GB und 18 Gbps für GPUs geht in Serie

Wolfgang

Redakteur
Teammitglied
Registriert
Nov. 2002
Beiträge
8.601
Schön - dann wird das mal wieder einen Schub bringen - und die Preise für mehr Leistung werden fallen mMn.
 
sehr schön, wird zeit das meine GTX670 durch was performanteres abgelöst wird :) Auf das die nächste wieder einige Jährchen hält ^^
 
Träum weiter. Man bezahlt nach Leistung. Wenn GPUs mit GDDR6 mehr Performance bringen, wovon ich
ausgehe, wird sich das Nvidia ordentlich versilbern lassen.
 
Es gibt ja noch andere Hersteller als Nvidia.

Mal sehen was sich dann dort tun wird.
 
Für die ganzen Gelegenheitszocker dürfte das eine schöne Sache sein, so könnte der/die Preis/Leistung der Mittelklassekarten sehr passabel sein. Mal schauen, wann man die ersten Datenblätter einsehen kann zu den neuen Nvidia Karten.
 
Wenn man sich die wirklich verfügbaren Karten anschaut dann gibt es leider nur noch NVIDIA.
 
@Moselbär
ich glaub gar nichts, AMD bekommt ja gerade im GPU-Sektor nicht so wirklich was auf die Kette. Navi wird auch nur ein Vega-Upgrade und auch erst 2019.

Jetzt wird's langsam eng für mich. Hatte eigentlich immer abwechselnd AMD und nV, aber ein Nachfolger für meine GTX 970 zeichnet sich bei AMD für mich im Moment nicht ab. Es sei denn ich halte mit dieser noch 2019 durch und Navi wird wieder meiner Erwartungen doch noch ein knaller :D
 
Oh schön - da kann nVidia beim Speicherinterface für die Consumer Minatur-GPUs noch eine Stufe runter gehen.
GTX2080@192bit :evillol:
 
Mal zum Vergleich:
Ein 8GB HBM2 Stack von Samsung soll an einen 1024-Bit-Interface 307 GB pro Sekunde schaffen.


Schaffen dann 2 Stacks, also 16 GB HBM2 614 GB pro Sekunde?
 
Grafikkarte mit 192 Bit, 12GB, 432GB/s...liest sich doch nicht verkehrt.

Ich hoffe AMD bringt gute Karten damit raus. HBM ist ganz nett, aber offenbar noch nicht für den Massenmarlt geeignet. Die Karte muss schnell und günstig sein. Die GTX 1080ti muss geschlagen werden, und das für 300€.
 
Zuletzt bearbeitet:
@Marcel55

die 2080ti die dieses Halbjahr kommt, muss geschlagen werden, weniger Stromverbrauch und das für 200€
 
Marcel55 schrieb:
Die GTX 1080ti muss geschlagen werden, und das für 300€.

Ich träume manchmal auch von warmen Eislutschern. Geben wird es die aber nie.
 
@ latexdoll: Eine XX80 Ti wird doch meistens einige Zeit nach der XX80 vorgestellt. Wenn die neuen Nvidia Karten beispielsweise im Juni verfügbar sind, würde die Ti frühstens erst Ende des Jahres erscheinen.

GDDR6 verspricht zwar eine höhere Leistung, doch preislich wird sich erst etwas ändern, wenn der Mining Markt nicht die ganzen Karten abkauft
 
dam ich will auch den Stoff, den ihr raucht. :D
ich fürchte eher, dass die Preise noch weiter hoch gehen.:rolleyes:
Wenn man gegenwärtig mit der alten Generation schon so absahnen kann ...?
 
Es ist zwar schöner schneller Speicher, aber ich bin auf die Testergebnisse gespannt. Bekanntlich profitieren Anwendungen und Spiele unterschiedlich stark von schnellem Speicher.
Irgendwie vermittelt es den Eindruck das GDDR6 die andere Speichertechnologie HBM(2) obsolet macht. Was für Unterschiede ergeben sich für den Enduser?
 
Früher(tm) war das gang und gäbe dass mit der nächsten Generation die letzte High-End zur Mittelklasse wurde und auch für Mittelklasse-Kohle verscherbelt wurde. Leider haben sich die Entwicklungszyklen verlängert und AMD hält leider nur leistungsmäßig bis zur oberen Mittelklasse (1080/Vega64) mit, von Perfomance/Watt ganz zu schweigen - daher ist es utopisch zu glauben dass Nvidia sich das nicht nur versilbern, sogar auch vergolden lässt. Ich denke (mal den Miningboom außer acht gelassen) dass eine 2080 wohl minimal über 1080Ti leistung liegt und das für 600€, nach guter Verfügbarkeit und Vorstellung einer 2080Ti evtl für 450€. Ich hätte es zwar auch gerne für 300€, aber leider dürfte dies nicht realistisch sein :)
 
Klingt gut, dann wünsche ich mir mal eine mit Stromverbrauch im Bereich GTX 1080, mehr Leistung und 8 bis 16 GB GDDR6 Speicher :)
 
Aber... wie viele MH/s sind mit dem Speicher möglich? :D
 
Ich vermute eher, dass nvidia die Volta einfach als High End Karte rausbringt und sich Zeit lässt damit, Pascal irgendwann durch Mittelklasse Volta abzulösen.
 
Zurück
Oben