News SK Hynix: GDDR6 für neue High-End-Grafikkarte Anfang 2018

Janxx schrieb:
Du meinst, wenn die Blackbox eines Flugzeuges unzerstörbar ist, warum wird dann nicht das ganze Flugzeug aus dem Material gebaut...?
;-))

Bester Mann, du hast es erfasst! :D

Aber nochmal zum thema: ist die Speicher Bandbreite heute wirklich das größte Problem? In den Tests liest man immer das die Größe des VRAM limitiert, nicht unbedingt der zu kleine Daten Durchsatz. Klar mehr ist nie zu viel, aber aktuell bekomme ich ehr den eindruck das die roh Power der gpu zu langsam wird.
 
Ihm gings um den Satz von Replay86, dass NVIDIA schon vor AMD HBM hätte.
 
TenDance schrieb:
HBM hat massive Vorteile, vor allem was die Latenz anbelangt. Geringere Latenz - höhere Rechengeschwindigkeit. Deswegen nutzt es nVidia ja auch beim GP100.

Wie oft willst du den Quatsch noch verbreiten. Das wurde dir schon vorher aufgezeigt, dass Aussage nicht korrekt ist. Scheinbar weißt du mehr als die Hersteller..

Die P100 verwendet HBM2 zwecks der Bandbreite nicht wegen Latenz, denn die ist auf gleicher Höhe. Siehe meinem angehängten Auszug aus den Specs von HBM direkt vom Hersteller.

Anhang anzeigen 616435

Bezüglich Latenz geben sich HBM und GDDR5 sich gar nichts.
 
Zuletzt bearbeitet:
@Galatian
Ich weiss, AMD war mit der Fury und HBM I vorher dran. Dennoch ist Nvidia schneller auf den HBM II zug aufgestiegen, obwohl sie gar nichts mit der Entwicklung zu tun hatten, etwas merkwürdig oder? Dass ebenfalls Nvidia die einzigen mit GDDR5x sind, zeigt doch nur, dass wir hier wieder ein Katz und Maus Spiel haben. Entweder kann es Nvidia nicht im Masse für High End Klasse produzieren, oder sie wollen es nicht, weil die GPU auch mit 384bit und GDDR5x klar kommen.

Den Endkonsumenten wird AMD natürlich zuerst beliefern, wenn sie denn wirklich kommt. Die Frage, ob es finanziell nicht besser gewesen wäre, wie Nvidia zu fahren, bleibt unbeantwortet.
 
Um ehrlich zu sein, interessiert mich persönlich nicht, ob gddr5x, gddr6 oder hbm verbaut wird.

Solange die Leistung und der Preis stimmen, ist alles ok..
Die Nutzungsdauer der Karten wird sich dadurch auch nicht ändern bzw. alle 2j wird aufgerüstet.
Klar es gibt Ausnahmen, aber diese sollten aktuell schon sehr zufrieden sein - 8gb Karte kaufen und lange nutzen, da gibt es ja gleich 4 mögliche Modelle (470 480 1070 1080 - bzw nun die "neuen" 5xx Serien von Amd).

Der Rest, der immer "neues" kauft, steigt nach 1-2j wieder rum - Ob dann auf gddr5 oder 6 oder 10 - Die Leistung wird sich dem Markt anpassen und man kann nicht zu viel erwarten bzw. werden weder Nvidia noch AMD eine Graka bauen, die 500€ kostet und 4-5 Jahre oben mitspielt ;)
 
Gute Aussichten fuer deutlich besserere GPUs naechstes Jahr. Ich freu mich drauf.
 
Wird wohl am Ende noch schneller sein und für Speicher mit 16 GB wird es noch besser
 
Ausgezeichnete Nachrichten!

Bin sehr gespannt, was das in der Praxis tatsächlich bringt.
 
Zu HBM: Ja der Interposer macht HBM teurer aber im Gegenzug macht es das PCB viel unkomplizierter (weniger Schichten für die "Leitungen") und durch den geringeren Verbrauch ist eine "schwächere" und dadurch günstigere Stromversorgung realisierbar. Die Frage für die Hersteller ist natürlich an welchem (Preis) Punkt es sich lohnt eher auf HBM zu setzen.
 
Kenneth Coldy schrieb:
Welches Produkt von NVIDIA wäre das?

Vor allem war die aussage VOR AMD


Nur mal als Info. Vor der Fiji gabs noch keinen HBM. Der wurde dort EXKLUSIV eingesetzt.
Was du meinst ist die erste HBM 2 Karte. Ja die ist von Nvidia, ist aber auch nur ne Server Karte.
 
Krautmaster schrieb:
in Theorie hat HBM viele Vorteile. Aber wie gesagt, bisher ist keines dabei was jetzt irgendwie mega zum Vorschein kommt. Gerade zb auch die Effizienz oder kleinere DIE Größe die möglich sein sollte.

....

Bei solche Beiträge gibt es eben doch einen saftigen Text von mir. Und komm mir bitte dann nicht mit, warum ich dir keinerlei Objektivität vorwerfe.
Nein es ist nicht Dummheit, auch nicht Unwissenheit. Es ist schlicht und ergreifend deine immer wieder kehrende negativ Aussage bezüglich AMD und deine Parteilichkeit gegenüber deiner Lieblinge, Intel und Nvidia.

Beweise für meine Aussage hier? Ganz klar der CB Test.
AMDs Aussage entwickelt sich mit einem Blick zur Asus GeForce GTX 970 Mini knapp zur Realität: Denn die GTX 970 benötigt im Testrechner 253 Watt, also noch einmal 45 Watt weniger als die Radeon R9 Nano. Allerdings ist die GTX 970 in der gewählten Auflösung im Durchschnitt 24 Prozent langsamer und in dem genutzten Spiel sogar 37 Prozent. Die Radeon R9 Nano fährt somit bezogen auf die Energieeffizienz tatsächlich ein besseres Ergebnis als die GeForce GTX 970 ein – beeindruckend!
https://www.computerbase.de/2015-09/amd-radeon-r9-nano-test/8/

AMDs aktuelle Architektur hat einfach einen großen Hunger nach Energie unter Last. Mit HBM konnte dieser im Vergleich zur gleichen Architektur und ohne HBM deutlich gesenkt werden. HBM bring eine deutliche Energieeinsparung. AMDs HBM Karte mit Nvidias Karten zu vergleichen ohne dabei zb die 390X mit der Fury X/Nano zu vergleichen um dann dein Urteil hier ins Forum zu ergießen ist einfach ...siehe oben. Entweder dumm, keine Ahnung, oder eben dein für dich typisches negativ Gelaber gegenüber AMD.

Nun zu den Träumern, AMD hätte durch das frühe HBM nutzen Vorteile. Dem ist einfach nicht so. Es war schlicht und ergreifend einfach nötig um die Leistungsaufnahme unter Last nicht durch die Decke knallen zu lassen.

Jetzt gilt es, mit der neuen Architektur bei Vega zu liefern. Man kann jetzt nur darauf warten ob diese Architektur eine deutliche Effizienz hinlegen kann im Vergleich zur alten Architektur.
Natürlich reden wir hier von den Desktop Karten. Wie warum und weshalb eine 1060 im Vergleich zu einer 580 einfach deutlich weniger Leistung braucht ist doch mir egal. Ich will ein Konkurrenzprodukt von AMD zu einer 1060, sowohl im Idle als auch unter Last sehen.

Hopsekäse
Kannst es dir aussuchen. Unwissenheit, oder keine Ahnung. Denn im Vergleich zur gleichen Architektur ohne HBM wurde deutlich die Leistungsaufnahme gesenkt. Das es nicht in jedem Fall ganz gereicht hat im Vergleich zu Nvidia bedeutet doch nicht, dass HBM keine Absenkung der Leistungsaufnahme bewirkt. Solche Urteile wie von dir oder Krautmaster könnte man nur dann fällen, wenn wir zB eine GTX 1070 GDDR5x 8GB hätten die sich mit einer GTX 1070 HBM II 8GB messen würde. Erst dann könnte man Urteile fällen.

Replay86 schrieb:
Nvidia verbaut schon lange HBM Speicher ja auch schon vor AMD.
Der Wort "ahnungslos" trifft es auf den Punkt.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
... Vielleicht im Herbst, sodass AMD mit mit einer 8GB Volta einsteigt und später ein 16 GB Modell nachschiebt.
Sorry, da kann ich nicht ganz folgen. Volta kommt von nVidia. Und warum sollten sie ein 16GB Modell "nachschieben", wenn sie damit die Einstiegsspeerspitze bilden?
Was genau wolltest Du sagen?
 
BlackhandTV schrieb:
@Envoy

fast 1000,- € ausgeben um die fast schnellste Karte zu haben, die in wenigen Monaten wieder absolut veraltet ist ?

Ich weis ja schon auf was du hinaus willst, aber schlussendlich weiss man welche Leistung man fürs Geld bekommt und wenn man nicht damit klar kommt dass man für knapp 1000 Euro nicht die schnellste Karte hat kauft man über seinen Verhältnissen oder die Probleme sind woanders zu suchen. E-Penis und so... Am ende des Tages spielt es keine Rolle ob die HW bald wieder veraltet ist oder nicht, die Leistung ändert sich deswegen nicht. Neue schnellere PC Hardware gibt es jedes Jahr und "veraltet" ist eine GP102 Karte sicher nicht sobald GDDR6 Speicher den Handel erreicht. Die Karte rockt auch in 2 Jahren noch gewaltig in 1440p. Stört der hohe Preis der High End HW kauft man sich einfach jeweils eine x70er Karte und bezahlt die hälfte für die High End Leistung des Vorjahres... Aber auf neue High End HW warten weil etwas besseres kommt ist absolut sinnlos.
 
In den Tests liest man immer das die Größe des VRAM limitiert, nicht unbedingt der zu kleine Daten Durchsatz.
...wo hast Du das denn gelesen, dass ist die absolute Ausnahme!
In der Regel limitiert die Leistung der GPU der Graka, dann, gerade bei Karten der Mittelklasse die Geschwindigkeit des Speichers, dann erst die Größe des VRAM - wobei das auch wieder von der Leistung der Graka abhängt.
 
MaexxDesign schrieb:
Selbiges damals von SDRAM auf DDR.
Das war der Shit !
Lange ist es her...

oder als noch Rambus state of the Art war bei Intel :D
 
VRAM Anstieg der letzten Jahre finde ich echt beachtlich, selbst mit auf 1440p hatte ich noch nie 4gbyte ausgelastet.
Wenn es aber Richtung natives 4k geht werden wohl 8gbyte Minimum.

Speicherbandbreitenlimitierung ist mir das erste mal so richtig bei der GTX1080 aufgefallen, die skaliert bei mir fast linear mit höherem Ramtakt.
 
MaexxDesign schrieb:
Selbiges damals von SDRAM auf DDR.
Das war der Shit !
Lange ist es her...

Jetzt fühl ich mich alt :/ :D
 
... Vielleicht im Herbst, sodass AMD mit mit einer 8GB Volta einsteigt und später ein 16 GB Modell nachschiebt.
Krauti meint gestimmt Vega, im Codenamenchaos durchaus möglich da kurz einen Dreher rein zu bekommen. ;)
Pascal- Polaris
Volta - Vega

Recht viel ähnlicher geht nicht.

Könnte ich mir auch gut vorstellen das 16GB HBM² kommen, diesmal technisch möglich, bei der Fury X war ja eine Verdopplung noch unmöglich da schon alle 4 Stacks voll waren. Noch besser wäre es natürlich NV mit ihren 12GB Karten eine Klatsche zu verpassen das es nur so schallert. Mal guggen ob AMD gleich beim Start in die Vollen geht.

In den Tests liest man immer das die Größe des VRAM limitiert, nicht unbedingt der zu kleine Daten Durchsatz.
Er hat recht, Rohleistung der GPU und Vram Größe entscheiden über die Langlebigkeit der Karte, keines kann ohne das andere lange überleben, gaaaaaanz am Ende dann die Bandbreite des Vram. Traurige Ausnahme GTX 970 das Vram und Bandbreitenkrüppel in einem vereint.

Die neuen Pascal skalieren zwar besser mit der Bandbreite, aber Flaschenhälse über Zeit sind das noch nicht. Ich sag euch bescheid wenn die Bandbreite eine wichtige Rolle einnimmt.
 
Zuletzt bearbeitet:
panopticum schrieb:
VRAM Anstieg der letzten Jahre finde ich echt beachtlich, selbst mit auf 1440p hatte ich noch nie 4gbyte ausgelastet.
Wenn es aber Richtung natives 4k geht werden wohl 8gbyte Minimum.

Speicherbandbreitenlimitierung ist mir das erste mal so richtig bei der GTX1080 aufgefallen, die skaliert bei mir fast linear mit höherem Ramtakt.

Naja, ich habe kaum mal >4gb belegt.

Also zumindest mit meinen Games ist das kaum möglich.

Hier zieht Forza Horizon 3 noch am meisten mit ~5gb (1440p Ultra 8xMSAA)

Das kann natürlich rapide steigen, in vielen Games ist das ja auch der Fall (Rottr, Deus Ex,.. z.B.).

BF1 und For Honor, die beide sehr gut aussehen, ziehen <4gb z.B.
GTA 5 liegt meist bei 4.5gb
WD2 ebenfalls
Witcher 3 zieht kaum was
usw. ^^

Allerdings sind das heute schon "alte" Games.
Mal sehen was im Herbst kommt - Vor allem SW Battlefront 2 interessiert mich, wobei das dann die BF1-Engine verwendet und wieder sehr ressourcenschonend arbeiten sollte.
 
AMINDIA schrieb:

Was genau willst du uns jetzt eigentlich sagen?

Glaube niemand hier bezweifelt, dass HBM theoretisch die bessere Speichertechnologie ist, nur muss man doch die Grafikkarte in Gänze beurteilen.

Was nützt mir HBM auf einer AMD Karte, wenn ich eine gleich schnelle GDDR5(X) Karte von NVidia bekommen kann, die noch dazu weniger Strom verbraucht?

Und weiter, warum sollte NVidia bei den Consumer Karten auf de HBM Zug aufspringen, wenn man mit dem vermutlich deutlich billigeren GDDR5(X) Speicher immer noch die schnelleren Produkte bauen kann? Hier also zusätzlich noch eine größere Marge für sein Unternehmen hat?

Was zweifellos richtig ist, ist die Aussage, dass eine direkte Gegenüberstellung des gleichen Chips mit unterschiedlichem Speicher mal ganz interessant wäre. Dann könnte man wirklich mal Aussagen dazu treffen, wie groß die Stromeinsparungen sind und wie sehr eine vorhandene Architektur schon im Breitband Limit hängt.
 
Zurück
Oben