News Radeon R9 390(X): AMD spricht über den HBM-Grafikspeicher von Fiji

Nilson schrieb:
Das Problem ist dann das Interface. Klar, kann man einfach das ganze Verdoppeln, dann muss man aber auch das Interface auf gigantische 1024 Bit verdoppeln. (Moment, ich such grad die Quelle, war auf 3DCenter irgendwo)

Zu dem Preis, wo die Margen eh nicht so hoch sind, könnte es als Übergang genommen werden..vielleicht sind ja deswegen ~800$ angesetzt... naja, lass mich überraschen...
 
Cherrycoce schrieb:
Bei AMD sind 4gb zu wenig und bei nvidia reichen 3,5gb noch völlig aus. jaja ;)

Wir sprechen hier ja nicht von irgendeiner günstigen Mittelklasse, sondern vom stärksten AMD-Flaggschiff der nächsten Monate.
Und da hat Nvidia 12GB.
 
Kommt das noch dieses Jahr? Gegen AMD wird demnächst ermittelt. Könnte teuer werden, sie werden vielleicht Geld brauchen. Würde gerne Aktien kaufen, der Kurs schein mir Zzt. zu hoch, irgendwie traue ich dem Braten nicht. Aber Potential hat das ganze schon.
 
s.0.s schrieb:
Kommt das noch dieses Jahr? Gegen AMD wird demnächst ermittelt. Könnte teuer werden, sie werden vielleicht Geld brauchen. Würde gerne Aktien kaufen, der Kurs schein mir Zzt. zu hoch, irgendwie traue ich dem Braten nicht. Aber Potential hat das ganze schon.

ja die R9 300 serie soll in diesem sommer erscheinen
 
Wird der höhere Speicherdurchsatz wirklich Performance bringen? Also ist das aktuell ein limitierender Faktor?
 
simons700 schrieb:
Schau dir Z.b. Witcher 3 an.
Vor ein paar Tagen saßen alle GTX Titan Besitzer mit ihren 6GB VRam noch fest im Sattel und jetzt geht Plötzlich gar nichts mehr.
Grad TW3 ist ein Beispiel dafür, wie man programmiert, ohne den Speicher zu überfüllen. Bei FullHD reichen ja sogar noch 2GB aus, bei 4K werden grad mal 4GB angesprochen.
 
Morpheus79 schrieb:
Erfordert diese Technik dann auch andere Kühllösungen? Es wird doch sicher schwerer diese viel punktueller liegende Wärmeentwicklung abzuführen, oder?

Ja, das frage ich mich auch. Dieselbe Frage stelle ich mir auch bei den Prozessgrößen und weiteren Schrumpfungen im Bereich der CPUs. Wie bekommt man diese punktuelle Wärmeleistung effizient auf eine große Kühlfläche übertragen?
 
Precide schrieb:

Das war ohnehin nicht ernst gemeint, aber seit wann sind 970,980,290x günstige Mittelklasse?

Auch wenn hier alle immer große Reden schwingen: "ja wenn amd jetzt nicht was neues zeigt wirds ein titanX sli-gespann!!!!" stellt sich mir die Frage wer so dämlich ist über 1000€ für eine einzige gpu auszugeben die mit ihrer Technologie bereits nach 1 Jahr wieder veraltet ist. Man sehe sich die alten Titan blacks und z an. Die werden ja nicht in einem einzigen Benchmark heutzutage genutzt.

Die Titan Karten sind nur für die, die mit ihrem Geld nichts besseres anfangen zu wissen. Für Enthusiasten halt. Auch wenn die Leistung sich auf einem ähnlichen Niveau bewegt, sollte man imo nicht die 390(X) mit der Titan X vergleichen.
 
Shurkien schrieb:
Wird der höhere Speicherdurchsatz wirklich Performance bringen? Also ist das aktuell ein limitierender Faktor?

Schneller nicht wirklich, aber günstiger, kleiner und leichter zu Kühlen.
 
Cherrycoce schrieb:
Bei AMD sind 4gb zu wenig und bei nvidia reichen 3,5gb noch völlig aus. jaja ;)
THIS! :lol: Genau das dachte ich auch gerade beim lesen.

Und wir wissen noch gar nichts über die neue Architektur, Stichwort Speicherkompression, Weiterentwicklung von Tonga bsp.

http://m.heise.de/newsticker/meldung/AMD-wittert-Geheimnisverrat-von-Ex-Managern-1785047.html

Und wenn ich daran denke das die genannten Herrschaften angeblich auch Dokumente bzgl der Speicherkompression mitgenommen haben sollen...:rolleyes:
 
Cool Master schrieb:
Ich muss sagen vor allem die Einsparung bei der Größe ist einfach nur Krass.

ist das auch auf State of the Art GDDR5 bezogen? Braucht man für 1 GB GDDR5 4 Chips?

@ 3,5 GB der 970X.

-> 1. hat die GTX 970 ne ecke weniger Rohleistung
-> 2. reichen 4 GB generell nicht aus (hallo, 2x so viel we ne asbach uralt HD6950) aber 3,5 zu 4 GB macht den Brei nicht fett.
-> 3. sind es nicht 3,5 GB sondern 4 Gb bei der GTX 970 addressierbar. Der Treiber kann also ggf. die restlichen 512MB "geschickt" handlen, zb 2D Dekstop Daten in diesen langsamen Cache auslagern.
 
Zuletzt bearbeitet:
HBM wird laut AMD Bandbreiten von „mehr als 400 Gigabyte pro Sekunde“ bieten, GDDR5 ermöglicht selbst an einem 512-Bit-Interface aktuell nur 320 Gigabyte pro Sekunde.

@Redaktion

512 bit / 8 * 4000 MHz * 2 = 512 Gigabyte/s != 320 Gigabyte/s

das ist nicht HBM!
 
Zuletzt bearbeitet:
Faust2011 schrieb:
Ja, das frage ich mich auch. Dieselbe Frage stelle ich mir auch bei den Prozessgrößen und weiteren Schrumpfungen im Bereich der CPUs. Wie bekommt man diese punktuelle Wärmeleistung effizient auf eine große Kühlfläche übertragen?

Ich habs oben schon mal geschrieben. Das "Problem" bei GDDR5 sind die Bustreiber (Transistoren, die die Leistung für den Datenbus bereitstellen) die sind schon jetzt im Chip und müssen mitgekühlt werden. Die entfallen mit HBM. Es wird also noch einfacher den Chip zu kühlen. Dazu wird die Spannung von 1,5 auf 1,35 Volt reduziert.
 
Precide schrieb:
Und da hat Nvidia 12GB.
Ja es gibt auch Media Markt PCs mit gigantischen "XYZ" richtig.
12 GB sind vorallem ein Marketinggag, die 99,9999% nicht mal ansatzweise voll kriegen.

Aber irgendwie musste man sich ja schon vom Vorgänger absetzen... Das zwar dafür andere Dinge dafür gestrichen wurden wird nicht erwähnt.
 
Wo ist das Problem?

Man kann auch 8 Stapel mit je 512 Bit anbinden. Der Stapel könnte dafür etwas höher Takten, geht natürlich zu lasten des Stromverbrauchs.

Aber ansich wären so 8 GB möglich.

Oder man wartet bis die RAM-Hersteller 8 Lagen liefern können, ich denke Anfang des kommenden Jahres wird das soweit sein.
 
Krautmaster schrieb:
ist das auch auf State of the Art GDDR5 bezogen? Braucht man für 1 GB GDDR5 4 Chips?

Die üblichen und gängigen Chips sind 256MB groß, die 280/290/X haben also 16 verlötete VRAM Chips:
http://extreme.pcgameshardware.de/a...90-hat-das-beste-pcb-asus-r9290x-dc2-4gd5.jpg

Bei 8GB Modellen werden einfach 512MB Chips verwendet, z.B. bei der Sapphire Vapor-X:
http://www.kitguru.net/wp-content/uploads/2014/11/DSCF4213.jpg
Sind aber wohl relativ teuer.


mfg,
Max
 
Morrich schrieb:
Diese doch deutlich fortschrittlichere Technologie in den GPu Markt einzuführen, wird AMD am Ende wieder kaum jemand danken. Letztlich wird dann wieder von der Konkurrenz gekauft, die die Technik dann lediglich abkupfern und hier und da vielleicht ein paar Optimierungen vornehmen.
So läuft es doch schon seit Jahren.

Morrich, soll ich als Kunde das kaufen, von dem es entwickelt wurde oder von dem Anbieter, der es besser anbietet?

Ich kaufe das, was mir gefällt und p/l-technisch das andere Produkt schlägt, ganz einfach.
Was besser ist, liest man dann in den Magazinen und Portalen.

Es ist mir persönlich dann sowas von egal, ob es AMD oder Nvidia ist.
Ich kaufe das bessere ;-)

Aktuell wäre es ja ne GTX 970, trotz "Speicher-Verarsche".

Bin gespannt auf die neuen Karten. Evtl. hole ich mir eine :-)

Fanboygelaber bringt dem Kunden am Wenigsten. Schade, dass es die Kunden selbst nicht verstehen O_o
 
D0m1n4t0r schrieb:
Bin mittlerweile ein wenig skeptisch was die erste Generation der HBM Karten angeht.
Jedoch die zweite Generation der HBM Karten dürfte richtig interessant werden,

Das geht mir mittlerweile auch so.

Ich zweifle immer mehr, dass ich dieses jahr noch ne neue GPU kaufe.
Und wenn AMD auch später in der zweiten (HBM-)Generation erst mit den richtigen Knallerkarten raus kommt, hat Nvidia vielleicht dementsprechend auch was feines auf Lager.

Nun 4GB sind mir zu wenig, für meine nächste.

Ich denke ich warte nun doch wirklich bis nächstes Jahr, aber warten wir erst mal ab, wie die Leistung so sein wird.
Vielleicht hat man da einfach zu viel Hoffnung reingesteckt und zu hohe Erwartungen.

Spannend wird's allemal. Aber für mich läßt die Spannung langsam nach, je mehr bekannt wird.

Schätze die 2. HBM Generation wird erst richtig interessant für mich.
Bzw. die erste von Nvidia.

Momentan tendiere ich wieder mehr zu Nvidia.
In letzter Zeit hängen die sich einfach mehr rein, für die besten Titel gut laufende Treiber zu bringen und pushen dort einfach mehr Aufwand/Geld in den Markt, damit die Spiele auf Nvidia gut laufen.
 
Jetzt erläutert der Hersteller weitere Hintergründe, ohne konkrete Eckdaten zu verraten.

Nach diesem Satz hatte ich schon fast keine Lust mehr weiterzulesen.
Immer diese Informationsfetzen, dass man schön an der Stange bleibt...
 
Zurück
Oben