News Micron GDDR5X: Start der Massenfertigung rechtzeitig zur GTX 1080

Hito schrieb:
Seit wann sind 320GB/s High-End? 390X kann bereits 384GB/s und das Grundgerüst der Karte ist die 290X von 2013...
Theoretisch ja, aber dafür ist die Busbreite bei HBM auch deutlich höher. Bei einem HBM Speicherzugriff muss man immer gleich 4096 Bit auslesen während bei GDDR5X minimal 256 Bit ausgelesen werden müssen.

Angenommen du möchtest also eine 512 Bit Struktur auslesen, dann braucht nVidia nur zwei Lesezugriffe dafür und ist in 0,05 ns damit fertig. AMD braucht dafür zwar nur einen Lesezugriff, dieser liest dann aber auch gleich 4096 Bit aus von denen du im Worst Case 3584 Bit wegschmeißen kannst. Damit wäre der 8 mal langsamer obwohl der theoretisch ungefähr die gleiche Bandbreite besitzt.
Es kommt also auch immer darauf an, wie die Spiele-Entwickler mit dem Speicher umgehen. HBM erfordert etwas mehr Disziplin bei den Entwicklern.

Aber mal ganz abgesehen davon. Das mich wundert ist, warum AMD User überhaupt das Bedürfnis verspüren sich hier wieder mit nVidia messen zu müssen.
In der News geht es noch nicht einmal um nVidia. Hier geht es darum das Micron seine Speicherproduktion früher startet als erwartet. nVidia wird in dem Zusammenhang nur nebenseitig erwähnt, weil die GTX 1080 das erste Produkt ist wo diese Chips zum Einsatz kommen.
Ist es für AMD User wirklich so schwer zu ertragen eine News zu lesen in der nVidia erwähnt wird und AMD nicht? Muss man da sofort solche Minderwertigkeitskomplexe bekommen, dass man dann das ganze Forum mit Schwanzvergleichen zuspammen muss?
 
Zuletzt bearbeitet:
@Necareor: Wenn ich mir Deine Antworten mir gegenüber und den anderen Teilnehmer ansehe, dann muss ich leider sagen, dass Du nicht viel Ahnung von der Materie hast. Bis jetzt konntest Du mir immer noch nicht vernünftig darlegen, in welchem Szenario eine GTX1080 den GDDR5X braucht. Auch Deine Antwort gegenüber @projectneo offenbart Deine Unwissenheit.

Mal für Dich zum Nachdenken: Nimm einen Algorithmus, der den GPU-Core stark belastet, jedoch sehr datenlokal ist, bspw. die Berechnung von AO (Ambient Occlusion). Wie passiert, wenn Du nun den Speicher übertaktest? Na, fällt jetzt der Groschen oder verstehst nur Bahnhof?
 
Ich hab doch geschrieben, dass es auf die jeweilige Anwendung ankommt. Klar gibt es Berechnungen, welche die Speicherbandbreite nicht groß beeinflussen, aber es geht ja nicht um Einzelfälle.

Wenn du in einem Spiel mit einer GTX 980 Ti deinen Speicher übertaktest, und du erhältst dadurch mehr Leistung, dann limitiert der Speicher. Oder sehe ich da etwas falsch?
Ein höherer Takt ist aber mit GDDR5 nicht mehr groß machbar, da irgendwann zu hohe Spannungen nötig sind. Daher ist GDDR5X sinnvoll, welches zwar keinen höheren Takt bietet, aber durch QDR eine höhere Bandbreite ermöglichen kann.

Was genau stimmt denn an der Antwort gegenüber @projectneo nicht?

Geh bitte etwas in's Detail, einfach nur von Unwissenheit oder Bahnhof zu reden, ist nicht wirklich hilfreich. Ich bin kein absoluter Profi in dem Gebiet, das ist natürlich klar. Aber so kann ich kaum meine Unwissenheit verbessern, oder?
 
Zuletzt bearbeitet:
Liest Du denn was ich schreibe?

Hier ist nochmals meine Ausgangsfrage: klick

Du antwortest, jedoch leider nur sehr pauschal, weshalb ich meine Frage wiederhole: klick 2

Und dann sagst Du wieder leider sehr pauschal:

Necareor schrieb:
Ich hab doch geschrieben, dass es auf die jeweilige Anwendung ankommt

Lass es doch einfach sein, auf meine Frage zu antworten. Es bringt uns beide nicht weiter und wir drehen uns im Kreis.

Deine Unwissenheit diesbezüglich kann ich Dir nicht mit ein paar Forumsposts klären. Sorry, aber das geht nicht. Ich kenne auch nicht Deinen Background, wie gut Du Dich mit Hardware und deren Programmierung auskennst. Wenn Dich das Thema wirklich interessiert, dann lerne eine Programmiersprache, spezialisiere Dich auf Grafikprogrammierung und dann analysierst Du Deine Programme und schaust, wo in bestimmten Situationen Engpässe herrschen.
 
noxon schrieb:
Aber mal ganz abgesehen davon. Das mich wundert ist, warum AMD User überhaupt das Bedürfnis verspüren sich hier wieder mit nVidia messen zu müssen.
In der News geht es noch nicht einmal um nVidia. Hier geht es darum das Micron seine Speicherproduktion früher startet als erwartet. nVidia wird in dem Zusammenhang nur nebenseitig erwähnt, weil die GTX 1080 das erste Produkt ist wo diese Chips zum Einsatz kommen.
Ist es für AMD User wirklich so schwer zu ertragen eine News zu lesen in der nVidia erwähnt wird und AMD nicht? Muss man da sofort solche Minderwertigkeitskomplexe bekommen, dass man dann das ganze Forum mit Schwanzvergleichen zuspammen muss?

Ich habe Dich eigentlich für intelligenter gehalten...
 
@Faust2011:
Jetzt tust du mir aber echt unrecht. Meiner Meinung nach habe ich auf deine Frage jedes mal ziemlich unpauschal geantwortet. Du ziehst dir nur jedesmal den falschen Satz als Antwort raus:

Bei "es kommt auf die Anwendung an" ging es mir um dein AO-Beispiel, und dass es natürlich immer verschiedenste Berechnungen gibt, die mal viel Speicherbandbreite benötigen, mal so gut wie gar keine.

Vielleicht habe ich auch nicht ganz klar formuliert, wann ich auf welche Frage geantwortet habe. Dann sorry für die Verwirrung.

Also nochmal genauer. Deine Frage:
Selbst bei Spielen würde ich ebenfalls gerne wissen, wann denn bei einer GTX1080 alter Speicher (GDDR5 - ohne das X) limitieren würde.

Und da habe ich schon mehrmals die GTX 980 Ti als Beispiel herangezogen, bei der bereits jetzt GDDR5 limitiert. Nämlich deshalb, weil du durch Übertaktung des VRAMs, also durch Erhöhung der Speicherbandbreite, eine Mehrleistung erhältst. Sollte also die GTX 1080 mindestens so viel Leistung haben wie die GTX 980 Ti, dann wird das da sicherlich genauso sein, wenn nicht sogar noch ausgeprägter.

EDIT:
Natürlich vorausgesetzt, dass die Komprimierung bei der 1080 noch dieselbe ist wie bei Maxwell.
 
Zuletzt bearbeitet:
DrToxic schrieb:
Die GTX 1080 hat gegenüber einer 980 Ti jetzt 48% mehr Rohleistung bei 5% weniger Bandbreite. Ich bin immer noch skeptisch, dass das wirklich nichts ausmacht. Das würde bedeuten, dass die 980 Ti nur die Hälfte der möglichen Bandbreite benötigt, wenn noch ~50% Luft nach oben sind..

Lossless Compression ist das Wort das du suchst. Verwenden NV wie auch AMD zur Reduktion der Datenmenge beim Transfer.

http://www.hardocp.com/image.html?image=MTQxMTA2MzcyNDBjUEVEMXNuZnBfNF80X2wuZ2lm

Necareor schrieb:
@Faust2011:
Nämlich deshalb, weil du durch Übertaktung des VRAMs, also durch Erhöhung der Speicherbandbreite, eine Mehrleistung erhältst.

Von welcher Mehrleistung sprechen wir hier 5%, 6% oder 7%? Das ist ein kleiner netter Nebeneffekt aber nicht mehr. Würde massiv die Bandbreite limitieren, würden mehr MHz am Speicher deutliche Sprünge machen und nicht ein paar einstellige Prozente.

Schauen wir uns die Fury X an, auch die gewinnt minimale Prozente bei mehr Memory Clock. Obwohl mehr als genug Speicherbandbreite da wäre.

http://wccftech.com/unlock-memory-overclocking-amd-r9-fury/

Necareor schrieb:
Natürlich vorausgesetzt, dass die Komprimierung bei der 1080 noch dieselbe ist wie bei Maxwell.

Davon kann man ausgehen, stieg ja jetzt von Generation zu Generation.
 
Zuletzt bearbeitet:
Das liest sich für mich ein bisschen so, als wenn die frühen Käufer der 1080 nicht nur Extra einen Early Bird Aufschlag zahlen, sondern eventuell auch noch quasi Beta Tester sein werden :)
 
noxon schrieb:
Angenommen du möchtest also eine 512 Bit Struktur auslesen, dann braucht nVidia nur zwei Lesezugriffe dafür und ist in 0,05 ns damit fertig. AMD braucht dafür zwar nur einen Lesezugriff, dieser liest dann aber auch gleich 4096 Bit aus von denen du im Worst Case 3584 Bit wegschmeißen kannst. Damit wäre der 8 mal langsamer obwohl der theoretisch ungefähr die gleiche Bandbreite besitzt.

​Bitte was? Wie kommst du bitte auf diese abstrusen Theorie? Und vor allem dieses Haarsträubende Beispiel.
 
strex schrieb:
Von welcher Mehrleistung sprechen wir hier 5%, 6% oder 7%? Das ist ein kleiner netter Nebeneffekt aber nicht mehr. Würde massiv die Bandbreite limitieren, würden mehr MHz am Speicher deutliche Sprünge machen und nicht ein paar einstellige Prozente.
Kommt ja immer darauf an, um wie viel du übertaktest. Hinzu kommt, dass das Speicherinterface der GTX 1080 um 33% kleiner ist als das der GTX 980 Ti. Da ist die Chance auf ein Bandbreitenlimit nochmals deutlich höher, wenn man nur GDDR5-Speicher nehmen würde, selbst mit GDDR5X ist die Bandbreite ja insgesamt kleiner bei der GTX 1080, daher gehe ich schon stark von einer verbesserten Kompression aus.

All das ist ja Spekulation, schließlich ist die GTX 1080 noch nicht draußen. Aber mehr als eine spekulative Antowrt kann ja auch nicht erwartet werden, z.B. auf die Frage von Faust, die sich halt auf die 1080 bezieht.
 
Zuletzt bearbeitet:
Faust2011 schrieb:
Ja, nämlich die Senkung der Energieaufnahme gegenüber GDDR5. Dem ist jedoch bei GDDR5X nicht so...
Doch :)

Weil bei GDDR5X Prefetch verdoppelt wurde, kann man im Gegenzug den Takt halbieren um auf ca. die gleiche Bandbreite zu kommen. Deshalb sind die Speichertaktangaben bei Pascal auch irreführend, weil nvidia den halbierten GDDR5X-Speichertakt von 2.500 MHz einfach "10.000 MHz effektiv" nennt. Begründung: 2.500MHz = 5.000MHz wegen double data rate und 5.000MHz GDDR5X sind ca. genau so schnell wie es 10.000MHz GDDR5 wären, deshalb 2.500 = 10.000* :rolleyes:

tl;dr: Man spart auch Strom mit GDDR5X wegen halbiertem Speichertakt.

Faust2011 schrieb:
weshalb mich der Sinn für diesen schnellen (zu schnellen?) Speicher für die GTX1080 nicht erschließt.
Siehe oben. Und weniger Bandbreite als die 980 Ti würde ich auch eher nicht als "zu schnell" bezeichnen:
GTX 980Ti: 5.632 GFLOPS, 336 GB/s
GTX 1080: 8.228 GFLOPS, 320 GB/s


Necareor schrieb:
Ein Vorteil wäre das kleinere PCB, was aber nur MiniITX-Besitzer interessieren dürfte, und vielleicht die Stromaufnahme. Obwohl auch hier erstmal gezeigt werden müsse, von wie viel wir da wirklich reden
10-20W könnten das schon sein, immerhin halbiert sich der Speichertakt. Die Ersparnis von HBM beträgt ca. 20-30W, da braucht man aber wegen dem riesigen Interface auch nur noch 500MHz in MemoryController und Speicher.
Als Anhaltspunkt: Der Stromverbrauch nur von VRAM und MC beträgt bei der R9 290X ca. 37-50W: http://www.anandtech.com/show/9390/the-amd-radeon-r9-fury-x-review/5

projectneo schrieb:
Weiterhin komprimieren GPUs ihre Daten immer, gerade NVidia ist hier sehr gut darin.
strex schrieb:
Lossless Compression ist das Wort das du suchst. Verwenden NV wie auch AMD zur Reduktion der Datenmenge beim Transfer.[/url]
Ja, das ist aber ganz bestimmt nicht neu, das hatte Maxwell nämlich auch schon. Oder kommt jetzt bei Pascal auf einmal die "Wunderkompression", die satte 50% besser komprimiert?
Wenn die Founder's Edition der 1080 jetzt (im Vergleich zur 980Ti) trotz fast 50% mehr Rohleistung wirklich 5% weniger Bandbreite hat und ein paar Wochen später dann neue GTX 1080 mit verbessertem GDDR5X Speicher kommen (16GBit/s statt 10GBit/s), wär das einfach zu geil :D

100€ extra zahlen für kastrierten Speicher und stock-Kühler. Läuft :evillol:
 
Die 1080 wird ja angeblich schneller als die 980ti, aber die Speicherbandbreite wird mit 320 GByte/s vs. 336,6 GByte/s geringer. Von daher könnte man durchaus davon ausgehen, dass ein gewisses Flaschenhälsle durch die Speicherbandbreite entsteht.

Is ja nicht so, dass Vram OC bei der ti nix bringt und genauso wird es auch bei der 1080 was bringen. Nötig is es natürlich nicht und ein ruckelndes Spiel bekommt man dadurch auch nicht flüssig, das is klar.

Is halt schade dass Micron den GDDR5X erstmal nur mit 10 Gbit/s bringt, wo er doch noch mit fetten bis zu 16 Gbit/s angekündigt worden war. Das is halt das Problem mit "bis zu", das schließt alles darunter mit ein.
 
Zuletzt bearbeitet von einem Moderator:
Man wird insgesamt mit immer höheren Preisen rechnen müssen.
Je kleiner die Fertigungsgrößen, desto höher die Kosten, das weiß man schon lange.

Wird man beim Speicher auch irgendwann auf 14nm, bzw. 10nm usw. umsteigen spiegelt sich das direkt bei den Preisen der Grafikkarten wieder.

14nm GPU + 8 x 14nm GDDR5X-Chip -> mindestens 600$-GraKa
 
Die Spannung beim 5X is ja nur 1.35V gegenüber 1.5V beim Gddr5, das müßte auch helfen die Leistungsaufnahme zu senken.
 
meckswell schrieb:
Die 1080 wird ja angeblich schneller als die 980ti, aber die Speicherbandbreite wird mit 320 GByte/s vs. 336,6 GByte/s geringer. Von daher könnte man durchaus davon ausgehen, dass ein gewisses Flaschenhälsle durch die Speicherbandbreite entsteht.
Zumal die Speicherbandbreite durch normalen GDDR5 nochmal deutlich kleiner gewesen wäre, wie halt bei der GTX 980 mit ~224GB/s. Und da hätte es definitiv ein Bandbreiten-Limit gegeben, wenn man der GPU-Leistung angepasste Grafikeinstellungen in Spielen nutzen würde.
 
Ich denke spekulieren bringt nichts.
Wir müssen wohl einfach die ersten Tests abwarten.

Ich könnte mir vorstellen, das die 1080 für meine Auflösung (3440x1440) genau die richtige Karte wäre.
 
EchoeZ schrieb:
Ich habe Dich eigentlich für intelligenter gehalten...
So kann man sich täuschen.

EXTREM schrieb:
​Bitte was? Wie kommst du bitte auf diese abstrusen Theorie? Und vor allem dieses Haarsträubende Beispiel.
Das ist ein grundsätzliches Problem in der EDV. Daten werden immer in gewissen Blöcken eingelesen oder geschrieben und es ist immer abzuwägen welche Blocksize für welchen Zweck am sinnvollsten ist. Eine zu kleine Größe kann zu viele Lesezugriffe und zu viel Verwaltungsaufwand führen, während eine zu große Blockgröße für zu viel Verschnitt und hohe Latenzen sorgen kann.
Da ist bei Festplatten so, beim Arbeitsspeicher, bei Bussystemen, bei Netzwerkprotokollen und natürlich auch beim Memorybus von Grafikkarten.
Man kann nicht einfach theoretische Werte nehmen und die Vergleichen als ob sie in der Praxis Gültigkeit hätten.
Das Beispiel, dass ich genannt habe ist natürlich ein aus der Luft gegriffenes Beispiel gewesen und wird so nie vorkommen. Kein Mensch liest einmalig 512 Bits aus.
Trotzdem kann es durchaus vorkommen, dass im Zuge einer Compute Berechnung Millionen Mal pro Sekunde genau 10000 Bits ausgelesen werden, womit auch immer 2288 Bits unnötig gelsen würden. Bei einem 265 Bit Bus würden nur 240 Bit unnötig ausgelesen. Andererseits braucht man im Ersten Fall aber auch nur drei Lesevorgänge während man im zweiten Fall 40 benötigt. Die Frage ist, was in der Praxis die bessere Performance liefert.
Ich sage nur, dass man theoretische Bandbreiten nicht miteinander vergleichen kann und es immer auf das praktische Anwendungsbeispiel ankommt. Die eine Architektur kann für eine Art der Berechnung von Vorteil sein während für eine andere Art der Berechnung die andere besser sein kann.

Ich dachte eigentlich das mittlerweile klar ist, dass theoetische Grafikbenchmarks und Füllratentests nicht mit echten Spielergebnissen vergleichbar sind.
 
meckswell schrieb:
Is halt schade dass Micron den GDDR5X erstmal nur mit 10 Gbit/s bringt, wo er doch noch mit fetten bis zu 16 Gbit/s angekündigt worden war.

Ich denke Micron wird von Nvidia unter Druck gesetzt. :)

Sonst hätten die entweder nur den 1070 rausbringen können, oder den kompletten Release verschieben müssen.

Die wollen mit dem Gehype potentielle AMD Käufer aufschrecken, nichts weiter.
 
@Noxon
Ich habe Informatik studiert, zwar im Fachbereich Telekommunikation und ich bin nicht so weit in die Materie der Grafikkarten eingearbeitet, trotzdem ist dein Beispiel oben komplett daneben. Du verwechselst da einige Sachen! Dann sollte man auch nicht Netzwerkprotokolle, Bussysteme, Festplatten und Speicher quer vermischen! Das eine hat mit dem anderen überhaupt nichts zu tun!
Nur weil ein Speichercontroller mit 4096 Bit Struktur verbaut ist, bedeutet das nicht das Pakete nicht kleiner sein dürfen. Das ganze hier jetzt auszuführen oder zu erläutern würde den Beitrag sprengen, ich kann dir dazu aber gerne im Netz ein paar Facharbeiten raussuchen wenn du möchtest.

Und vergleich das ganze bitte nicht mehr mit der Struktur von Festplatten oder Netzwerken das ist eine ganz andere Welt und baut nicht auf das selbe System auf.
 
Zuletzt bearbeitet:
MichaG schrieb:
Dank des effektiven Speichertakts von 10 GHz (10 Gbit/s Datenrate) erreicht die Grafikkarte

Dank des Speichertakts von 5 GHz (10 Gbit/s effektive Datenrate) erreicht die Grafikkarte

TFTFY
 
Zurück
Oben