News „DDR is over“: HBM3/HBM4 bringt Bandbreite für High-End-Systeme

Gerade das breite Speicherinterface lässt sich eben nicht so einfach als Modul implementieren. Denn dafür müssten entsprechend viele Kontakte im Sockel sein und auch Leiterbahnen geführt werden. Dazu kommt das man für die Verbindung über den Interposer auch weniger Leistung benötigt und das Speicherinterface somit schlanker ausfallen kann.
 
Mir gings vor allem um Speicherinterface pro Stack. Dafür benötigt man bei GDDR wohl immer noch viel mehr Platz. Daß das ganze auch verdrahtet werden muss, ist natürlich klar. :D
 
Jesterfox schrieb:
Gerade das breite Speicherinterface lässt sich eben nicht so einfach als Modul implementieren. Denn dafür müssten entsprechend viele Kontakte im Sockel sein und auch Leiterbahnen geführt werden. Dazu kommt das man für die Verbindung über den Interposer auch weniger Leistung benötigt und das Speicherinterface somit schlanker ausfallen kann.

warum sollte es nicht möglich sein?
 
Ich sag ja nicht das es nicht möglich ist, sondern eben nicht so einfach... die Kosten für den Aufwand wird wohl niemand bezahlen wollen. Für ein 1024 Bit Modul kannst du bestimmt das 4-fache an Leitungen gegenüber einem DDR4 Sockel rechnen.
 
Botcruscher schrieb:
Ich lass mich überraschen. Bis jetzt war HBM ja eher eine große Enttäuschung.

Enttäuschung würde ich jetzt nicht direkt sagen. Aber da (meines Wissens nach) bisher nur AMD größer HBM verwendet und da auch noch zuwenig vorhanden ist, lassen ja andere (noch) die Finger davon.

Ich könnte mir durchaus vorstellen das man HBM bei Grafikkarten als eine Art Cache einsetzen könnte und dahinter noch eine größere Menge GDDR-Speicher.

Aber auch ich lasse mich überraschen.
 
Jesterfox schrieb:
Ich sag ja nicht das es nicht möglich ist, sondern eben nicht so einfach... die Kosten für den Aufwand wird wohl niemand bezahlen wollen. Für ein 1024 Bit Modul kannst du bestimmt das 4-fache an Leitungen gegenüber einem DDR4 Sockel rechnen.

So wie ich das sehe nicht. Anscheinend nutzt HBM eine Art Channel Bonding. Für nen Stack mit 8 Dies sind wohl nur 4 Leitungen nötig. Wie gesagt, ich lese das so heraus:

https://www.semicontaiwan.org/zh/si..._taiwan_2015_ppt_template_sk_hynix_hbm_r5.pdf (ab Seite 13)

OGOspbX.png
5sHbTJC.png

Kenshin_01 schrieb:
Aber da (meines Wissens nach) bisher nur AMD größer HBM verwendet und da auch noch zuwenig vorhanden ist, lassen ja andere (noch) die Finger davon.

Intel, nVidia und AMD sind bisher die größten Abnehmer. Darüberhinaus gibt es noch ein paar andere Firmen, die HBM einsetzen und damit auch abnehmen.
 
Zuletzt bearbeitet:
Erinnert mich an meine Diskussion mit @Holt vor ungefähr 2 Jahren, wo er mich strikt belehren wollte, aus welchen 1000 Gründen mein Gedanke, dass DDR durch HBM abgelöst wird kraft der typisch holt'schen Besserwissenheit völliger Quatsch sein muss.

:evillol:
Ergänzung ()

FrozenPie schrieb:
Ich vermute eher, dass es eher in die Richtung von hybriden Systemen geht. Also, dass HBM quasi eine zusätzliche Zwischenspeicherstufe wird, zumindest bei CPUs (Auch wenn es für GPUs in kleinem Maße denkbar wäre).
Das Tiering würde dann so aussehen: L1 -> L2 -> L3 -> HBM (L4) -> DDR (L5) -> ...
Also abnehmende Geschwindigkeit/zunehmende Latenz, bei zunehmendener Speicherkapazität. So hätte man die Vorteile aus beiden Welten, allerdings auch mit den Kosten von beiden (einschließlich eines Hybriden oder doppelten Speichercontrollers), weshalb ich das nur in Top-Produkten erwarten würde.

Absolut diese Idee habe ich auch seit ca. 2 Jahren so im Kopf!
;)
Ich denke, das geht jetzt schneller, als die meisten denken:
Klassischer DDR-DRAM wird an Bedeutung verlieren.

Los geht die Entwicklung mit DDR5... DDR5 wird im Vergleich zu Vorgängergenerationen allgemein erheblich an Bedeutung verlieren und v.A. wird bei DDR5 die Performance an Bedeutung verlieren, da DDR5 dann parallel zu hochperformantem on-die- oder near-die-HBM dann "nur noch" next level cache sein wird und da zählt eher die Masse, als die Geschwindigkeit...
;)

Besonders begeistert wäre ich, wenn es auch bei HBM mit der Zeit wieder verschiedene Geschwindigkeitsstufen gäbe.
So könnte man einen schnellen Cache neben das Die pflanzen und einen Mittelweg als zusätzlichen Sockel auf dem Mainboard installieren.
 
Zuletzt bearbeitet:
yummycandy schrieb:
So wie ich das sehe nicht. Anscheinend nutzt HBM eine Art Channel Bonding. Für nen Stack mit 8 Dies sind wohl nur 4 Leitungen nötig.

Da ist ein kleiner Denkfehler.

Bei einem 1024 Bit Speicherinterface gibt es auch mindestens 1024 Datenleitungen. (+ Strom, Masse, Schirm)
Das sich manche HBM Chips dieselben Datenleitungen teilen gilt nur für die Chips in einem Stapel(Stack). Für jeden weiteren braucht man 1024 zusätzliche Leistungen. Bei 4 Stapeln hat man ein 4096 Bit breites Speicherinterface und benötigt auch dementsprechend viele Leitungen.

HBM ist einfach nicht als Modul möglich, das muss zwingend aufgelötet werden.
 
XTR³M³ schrieb:
darum sagte ich ja, etwas schlechtere latenzen....

+ höherer Energiebedarf und höherer Platzbedarf.

gehen würds aber ohne probleme...

Und trotzdem hat das bisher keiner Gemacht. Warum wohl? Mangelnder Bedarf wohl kaum, denn Speicher gabs im Server schon immer nur in zwei Größen. Zu klein oder demnächst zu klein.
 
Botcruscher schrieb:
Ich lass mich überraschen. Bis jetzt war HBM ja eher eine große Enttäuschung.

Sehr große entäuschung. Fiji hielt lange Zeit den Rekord in Sachen Speicherbandbreite. Vega10 kommt mit nur 2 Stacks in eine Region wo man bei GDDR5 Speicher die ganze Platine vollpflastern muss...
 
1GB HBM für die APU wäre doch perfekt, und zur Not halt als L4 für Berechnungen. Bei so einer geringen Menge wird der Preis nicht astronomisch steigen und wenn nur annähernd 100GB/s erreicht werden, immer noch schneller als der RAM.
 
Es währe schön gewessen wenn man Quad Stacks gemacht hätte bei der Vega Frontier Edition.
Bei nur 2 Stacks ist die Bandbreite doch sehr begrenzt für Heutige Verhältnise.
 
Faranor schrieb:
Und wie verhalten sich die Latenzen? Ist dort HBM auch besser als DDR?
Ja, denn die Adressierung funktioniert bei dem anderes, es wird nicht wie bei DDR RAM nach row und column adressiert, wobei diese sich die Leitung teilen damit es eben nicht zu viele Pins werden und daher werden diese beiden Informationen nacheinander übertragen. HBM geht nur per Interposer oder eben Intel EMIB welches ja ein teilweise Interposer ist, aber eben nicht über andere Verbindungstechniken, weil man eben so viele Kontakte braucht. So viele Kontakte sind über Module einfach nicht realisierbar.
MilchKuh Trude schrieb:
Ich könnte mir vorstellen dass wir sowas sehen werden wie 8gb HBM "Cache" on die und Rest als DDR on board.
Dies ist denkbar, würde die CPUs aber sehr viel teurer machen und daher wird es wenn, dann wohl vor allem bei teuren CPUs wie Server CPUs realisiert werden.

amdfanuwe schrieb:
Könnte mir vorstellen, dass AMD bereits Pläne für eine APU mit 4 oder 8 GB HBM in der Schublade hat und nur noch auf die breite Verfügbarkeit von HBM wartet.
Würde für die meisten Laptops, Thin Clients und Embedded Systeme reichen.
Dafür ist es zu teuer, Interposer sind teuer weil sie auch wie Halbleiter produziert werden und klassische Interposer müssen so groß sein das alle Dies drauf passen. Intels EMIB Technologie hat den Vorteil weitaus kleinere Interposer verwenden zu können, da die eben nur unter einem Teil der Dies liegen. Bei den von Dir genannten Anwendungen ist der Leistungsbedarf zu gering als das man dafür Preise verlangen könnte um solch eine teure Technologie zu rechtfertigen.
amdfanuwe schrieb:
Also in 2 Jahren 7700k Leistung + Radeon 570 + 8GB HBM als Single Chip Lösung?
Eher nicht, denn dann müsste man auch eine Version mit 16GB und eine mit 32GB anbieten, da nicht jedem Kunden nur 8GB reichen, außer man hat eben doch noch ein DDR Interface und nutzt dann das HBM nur für die iGPU, womit man dann bei Kaby Lake-G wäre, denn der gemacht genau dies.
Ozmog schrieb:
Das sieht aber nach dem Artikel anders aus. 2 TB/s pro Sockel möglich mit HBM2.
Weil man ja eben so viele Bits parallel übertragt, also sozusagen sehr viele RAM Channels hat. Dafür braucht man sehr viele Verbindungen und entsprechend viele Verbindung kann man derzeit eben nur über Interposer realisieren.
konkretor schrieb:
ich denke hier entscheidet eher dier Kostendruck, HBM ist ja immer noch sehr aufwendig in der Fertigung besser gesagt beim Stapeln mit dem eigentlichen Prozessor, so lange dies nicht bessere wird, bleibt es in der Nische.
So ist es, EMIB wird die Kosten senken, aber sie bleiben trotzdem hoch.
Herdware schrieb:
Die einzige Möglichkeit wäre wohl, die komplette HBM-CPU/APU gegen ein Modell mit mehr HBM-Speicher auszutauschen. Und auch das nur, wenn das Bauteil nicht direkt verlötet ist.
So ist es, die Vielfalt der CPUs und deren Preise würde also massiv steigen müssen, denn nicht jeder braucht oder will gleich viel RAM, bisher kann man die Menge im einem recht weiten Bereich selbst bestimmen, derzeit dürften bei Mainstream Rechnern Werte zwischen 8 und 64GB üblich sein, mit SMB wären dann statt eines i7 8700K je einer mit 8GB HBM (auf den könnte man vielleicht noch verzichten), 16GB, 32GB und 64GB im Angebot sein um die unterschiedlichen Kundenanforderungen abdecken zu können. Bei Servern wäre es noch schlimmer, da gibt Anwendungen die zwar viel Rechenleistung aber eher wenig RAM brauchen und solche die viel RAM brauchen, wie viele Versionen der ganze sowieso schon zahlreichen Xeon CPUs würden sich daraus ergeben?

Mal davon abgesehen was die HBMs auch Platz brauchen und vor allem wenn man bedenkt das ein normaler LGA3647 Skylake-SP schon 768GB und die M Modelle sogar 1,5TB DRAM pro Sockel unterstützen. So viel braucht längst nicht jede Anwendung, aber wenn die Anwendung so viel RAM braucht, wären die 64GB oder 128GB noch schnelleres HBM die man da maximal mit unter den HS bekommen kann, wohl kein wirklicher Ersatz.
valnar77 schrieb:
Man hat ja am i7 5775c gesehen was ein extra schneller Zwischenspeicher bringen kann.
Ja dessen eDRAM hat vor allem für die iGPU viel gebracht, die GPUs profitieren ja verlangen eben viel RAM Durchsatz, man sieht ja auch beim Vergleich der GPU Performance beiden Raven Ridge APUs wie sehr die RAM Anbindung den größeren offenbar einschränkt. Dem CPU Teil, der ja auch auf das eDRAM als eine Art L4 Cache zugreifen kann, bringt dieser aber nur bei bestimmten Anwendungen wirklich etwas, bei anderen aber nicht. Da ist die Frage ob dieser beschränkte Nutzen die Kosten rechtfertigt und die Kosten waren schon bei dem kleinen und vergleichsweise billigen weil einfacher angebundenem eDRAM das größte Problem. HP denkt wohl außerdem nicht an Cache, sondern daran DDR RAM durch HBM abzulösen.
XTR³M³ schrieb:
oder es ist in zukunft ein sockel für ein HBM modul neben dem CPU sockel, klar, die latenzen dürften minimal höher ausfallen durch die lngeren leitungswege, aber das wäre zumindest extrem kundenfreundlich.
Wäre es, aber es wäre technisch wohl kaum möglich so viele Verbindungen zu realisieren, denn HBM braucht ungleich mehr Pins als DDR RAM.
Jesterfox schrieb:
Bei HBM wird es keine Module geben, der bezieht ja seine Vorteile genau daraus das er mit der CPU/GPU auf einem Interposer sitzt.
Eben, wobei aber der Interposer nötig ist, nur so lassen sich so viele Verbindungen realisieren, dann darauf bezieht HBM die hohe Bandbreite und auch die geringere Latenz. Es ist also eigentlich nicht schnell weil es auf einem Interposer sitzt, sondern weil es so viele Verbindungen, viel mehr Daten- aber auch mehr Adressleitungen hat und daher einen Interposer braucht.
yummycandy schrieb:
AFAIK sind die Latenzen von HBM und GDDR so ziemlich gleich.
Wenn es um die Zellen geht ja, aber die Adressierung verringert bei HBM die Latenz schon etwas.
yummycandy schrieb:
Wichtig sind Platzersparnis und das (mögliche) extrem breite Speicherinterface. Gerade hinsichtlich solcher Geschichten wie EMIB oder Interposer interessant.
Der Interposer ermöglich diese breiten Speicherinterfaces erst, die Platzersparnis ergibt sich daraus, dass der Interposer sehr teuer ist, umso größer der sein muss, umso teurer wird er auch. EMIB ist hier wie gesagt ein Weg die Kosten von Interposern zu senken indem man diese verkleinert und statt die ganzen Dies komplett auf den Interposer zu packen, nur noch einen Teil der Dies über dem Interproser zu haben.
XTR³M³ schrieb:
warum sollte es nicht möglich sein?
Weil man so viele Verbindungen braucht, sonst muss man eben bei der Datenbreite runter gehen, dann fällt aber auch die Bandbreite wieder.
Jesterfox schrieb:
Für ein 1024 Bit Modul kannst du bestimmt das 4-fache an Leitungen gegenüber einem DDR4 Sockel rechnen.
DDR Riegel haben 64 Bit Datenbreite (72 mit ECC), 1024 sind 16 mal so viele und dazu braucht man wie gesagt mehr Adressleitungen. DDR4 SO-DIMMs haben 260 Pins bei 69.6 mm Breite, schon mehr Pins pro mm als die DDR3 SO-DIMM mit ihren 204 Pins bei 67.6 mm Breite und stellt ungefähr das Limit dessen da, was man so an Pins pro mm für solche Verbindungen realisieren kann. Um also 1024 Bit Datenbreite zu realisieren, müsste ein Riegle über einem Meter lang sein.
yummycandy schrieb:
Für nen Stack mit 8 Dies sind wohl nur 4 Leitungen nötig. Wie gesagt, ich lese das so heraus:
Da geht es nicht um die Pins, sondern logische Verbindungen. Pro Datenleitung braucht man mindestens einen Pin, für hohe Frequenzen dann zwei (+ und -, z.B. bei SATA oder PCIe), aber DDR RAM nutzt nur einen Pin pro Bit, keine Ahnung ob HBM nicht sogar zwei verwendet um höhere Übertragungsraten zu erlauben, was dann die Anzahl der Pins nochmal verdoppel würden, mit Ausnahme der Pins für die Spannungsversorgung.
Winder schrieb:
Bei einem 1024 Bit Speicherinterface gibt es auch mindestens 1024 Datenleitungen. (+ Strom, Masse, Schirm)
Plus Adressleistungen und wenn man eine hohe Übertragungsfrequenz ereichen will, dann braucht man sogar zwei.
Winder schrieb:
Das sich manche HBM Chips dieselben Datenleitungen teilen gilt nur für die Chips in einem Stapel(Stack).
Eben und kostet dann wieder Bandbreite, da man ja sonst beide Dies gleichzeitig ansprechen und die doppelte Datenmenge übertragen könnte. Das ist wie bei mehreren DIMMs pro Channel, die bringen im Gegensatz zu mehr Channels auch keinen Performancevorteil, dafür spart man sich aber die ganzen Pins ein, bis auf einen um zu bestimmen welches der beiden DIMMs angesprochen werden soll. Daher kann ja z.B. auch nicht einfach bei einem Board statt Dual Channel mit zwei DIMMs pro Channel durch eine anderen RAM Conntroller Quad Channel ermöglich werden, da man dann doppelt so viele Pins an der CPU für die RAM Slots braucht und diese auf dem Boards anders verschaltet werden müssen. Solange AMD z.B. am AM4 Sockel festhält, kann es also kein CPU mit Quadchannel RAM für den Sockel geben.
Winder schrieb:
HBM ist einfach nicht als Modul möglich, das muss zwingend aufgelötet werden.
Eben, wobei aber die Dies bei Interposern meines Wissens nicht verlötet werden. Auch müssen dort alle Pins eine Alternative Verbindung nehmen können, da immer wieder einzelne Pins keinen Kontakt haben, was die Technik zusätzlich verteuert und wenn zu viele Pins ausfallen, dann hat man Schrott produziert. Interproser sind technisch nicht ohne und sehr anspruchsvoll zu fertigen, die Kosten sind daher entsprechend hoch, aber um so viele Verbindungen zwischen zwei Dies zu realisieren wie HBM sie benötigt, gibt es eben auch keine Alternative.

HBM ist nur entstanden weil die Interposer eben die Möglichkeit bieten die Limitierungen die durch die bisherige Verbindungstechniken gegeben waren, zu überwinden und viel mehr Verbindungen zu machen um die Latenz bei der Adressierung und vor allem die Bandbreite massiv zu verbessern. Wollte man dies als Modul umsetzen, müsste man mit sehr viel weniger Verbindungen auskommen und dann wäre es kein HBM mehr. Deshalb ist HBM als Riegel einfach nicht machbar und nur wer wirklich keine Ahnung von der Technik hat, kann auf solche Ideen kommen. Leider beteiligen sich auch an dieser Diskussion wieder viele denen das Grundverständnis für die Technik komplett fehlt.
 
Wenn HBM so viele Pins braucht warum sockelt man die Speicherchips nicht einfach auf dem mainboard wie bei CPU
 
Die eigentliche Frage ist doch ob die Bandbreite bei aktuellen Desktop CPUs überbaupt noch ein Flaschenhals ist. Seit der Single Channel SD RAM Zeit hat sich die Bandbreite extrem erhöht, die Latenzen sind aber kaum gesunken. Selbst wenn ein ganzer 512 Byte Block auf einmal gelesen wird, so ist die Latenz für den Speicherzugriff (ca. 50ns) schon deutlich größer als die Zeit die zur Übertragung der Daten benötigt wird.

Interessant ist HBM eher für Grafikkarten oder Supercomputer mit sehr vielen Kernen wenn jeder Kern parallel einen Speicherzugriff benötigt und diese parallel geschehen. Im normalen Desktop CPU Umfeld mit größtenteils Single Core Last mit einige Anwendungen die 4 bis 6 Kerne auslasten wird der Vorteil eher gering sein.
 
syfsyn schrieb:
Wenn HBM so viele Pins braucht warum sockelt man die Speicherchips nicht einfach auf dem mainboard wie bei CPU
Das wäre vielleicht eine Möglichkeit, aber dann braucht man vermutlich neben einem größeren Sockel für die CPU und einem auch nicht kleinen Sockel für die HBMs, es müssen auch immer wieder Masseleistungen und -pins zwischen den Signalleitungen und -pns vorhanden sein um Störungen zu vermeiden, auf dem Board bedeuten. Gerade bei Serverboards mit mehreren CPU Sockeln ist der Platz sowieso schon knapp, aber vielleicht kommt ja so eine Lösung eines Tages.
andr_gin schrieb:
Die eigentliche Frage ist doch ob die Bandbreite bei aktuellen Desktop CPUs überbaupt noch ein Flaschenhals ist.
Dies hängt immer von der Anwendung ab, bei den meisten von Heimanwendern dürfte es wenig bringen. Die CPU Hersteller treiben ja viel Aufwand bei den Caches um eben die Anzahl der RAM Zugriffe möglichst gering zu halten, aber wenn auf großen Datenvolumen nur jeweils recht kurz dauernde Operationen ausgeführt werden, wie es bei GPUs aber auch bei Supercomputern oder einigen Serveranwendungen wie BigData Analysen vorkommt, dann kann kein Cache der Welt eine hohe RAM Bandbreite ersetzen. An genau sowas scheint HP auch zu denken.

Jeder Cache funktioniert ja immer nur wenn die Daten dort auch drin stehen, was sie tun wenn sie kurz vorher schon mal verwendet wurden. Zwar versuchen moderne CPUs vorherzusehen was als nächstes benötigt wird und diese Daten vorab in den Cache zu laden, aber dies kann nur etwas bringen wenn die Daten dort ankommen bevor die zuletzt gelesenen fertig bearbeitet wurden,
andr_gin schrieb:
Seit der Single Channel SD RAM Zeit hat sich die Bandbreite extrem erhöht, die Latenzen sind aber kaum gesunken.
Die sind durch durch die Technik von DRAM bedingt und werden auch nicht großartig gesenkt werden können. Man hat wie gesagt bei HBM Optimierungen bei der Adressierung vorgenommen, weil man beim HBM eben bzgl. der Anzahl der Pins nicht so eingeschränkt ist und daher die Adressierung auf Kosten von mehr Pins optimiert hat.
andr_gin schrieb:
Interessant ist HBM eher für Grafikkarten oder Supercomputer mit sehr vielen Kernen wenn jeder Kern parallel einen Speicherzugriff benötigt und diese parallel geschehen.
Zumindest bei GPUs ist es ja so, dass die Kerne zwar jeder für sich arbeiten, aber meist machen alle das Gleich jeder auf einem Teil der Daten die jeweils ein Teil des Bildes ausmachen. Da ist die Chance gut, dass der nächste Kern auch die Daten braucht die nächsten Bytes der Daten aus dem RAM braucht die gerade aus dem RAM geladen wurden. Bei Supercomupteranwendungen kann dies auch der Fall sein, aber z.B. bei einer Datenbank mit viele Client dürfte es keinen Sinn machen HBM zu nehmen und dann wegen der Breise von 1024Bit statt 64 Bit dann etwa gleich statt 512 Byte einen Block von 4 oder 8k aufeinanderfolgender Daten aus dem RAM ins Cache zu laden, wenn man dann nur ein paar Bytes davon braucht und der Nachbarkern ganz andere Daten benötigt die gar nicht in dem RAM Block liegen und daher trotzdem wieder extra aus dem RAM in den Cache geladen werden müssen. Obendrein stehen dann Daten auf viel weniger unterschiedlichen RAM Bereichen im Cache, wenn man diesen nicht entsprechend vergrößert, ein sehr breite RAM Anbindung kann also je nach Anwendung dann sogar negativ für die Performance sein. Bei GPUs kommt sowas wie gesagt selten vor, da brauchen die Kerne eben in aller Regel Daten die nahe beieinander im RAM stehen, da bringt HBM dann auch am meisten.

Erinnerst ihr euch noch an den Ganged oder Unganged RAM mode von AMD? Im Ganged mode wird bei Dual Channel Bestückung aus zweimal 64 Bit pro Riegel praktisch ein 128bit breiter, pro Zugriffe wird also doppelt so viel geladen, aber eben immer an aufeinander im RAM stehenden Daten, während im Unganged mode jeder Riegel einzeln mit 64 bit angesprochen wird, aber jeder unabhängig vom anderen adressiert werden kann. Die meisten Benchmarks dürften dies nicht nutzen können, aber im Grunde ist die Speicherbandbreite gleich, es werden dann aber Daten von ganz unterschiedlichen Adressen geladen, wenn also zwei Kerne zeitgleich Daten von total unterschiedlichen Adressen brauchen, können im Unganged mode beide gleichzeitig erfolgen wenn die Daten auf Riegeln an unterschiedlichen RAM Kanälen liegen, während im Ganged mode zwar in der gleichen Zeit jeweils doppelt so viele Daten geladen werden, aber zwei Zugriffe immer nacheinander erfolgen müssen. Wie dieser Review zeigt liegt mal der Ganged und mal der Unganged Mode in der Performance vorne, bei der e Videobearbeitungssoftware Nero Vision, Cinebench oder WinRAR, die beide Daten laden die nacheinander im RAM stehen, ist natürlich der Ganged Mode um bis zu 6,1% im Vorteil, bei anderen wie Prey800 x 600 [4xAA/16xAF] war aber die Performance im Unganged Mode um 6,5% besser.

Wie man sieht ist es eben eine Frage der Anwendung ob eine breite RAM Anbindung wirklich ein Vorteil ist und längst nicht bei jeder Anwendung ist es von Vorteil. Bei GPUs sind die Speicherzugriffe so, dass es ein großer Vorteil ist, aber dies lässt sich nicht einfach so auf CPUs übertragen.
 
Popey900 schrieb:
Hoffentlich ist HBM interessant für Minier und der DDR Preis fällt endlich wieder.

Wie als ob die Miningindustrie an den DDR Preisen schuld wäre. Frag dich mal wer die Speicherblöcke hauptsächlich herstellt und womit der Hersteller hauptsächlich momentan Geld verdient.

Die Mobilfunkindustrie ist hier die Ursache allen Übels. Die verbraucht den Speicher nämlich im Gegensatz zu den PC Nutzern (egal wer) tonnenweise und zahlt auch noch besser dafür. Mittlerweile gibt es ja sogar Handys mit 8 GB Arbeitsspeicher, das ist doch einfach nur krank. Und im Gegensatz zu den PCs sind Handys hauptsächlich innerhalb kürzester Zeit Elektroschrott.
Ein PC Nutzer kauft in der Regel nur alle Jubeljahre lang mal neuen Speicher egal ob GDDR oder DDR. Jemand der ein Smartphone per Vertrag besitzt bekommt in der Regel jährlich ein neues Handy. Ich sehe auch kaum Leute mit einem Handy in der Hand, was älter als 3-4 Jahre ist und es haben auch wesentlich mehr Leute ein Handy als einen PC.
 
Das fällt für mich in die gleiche Kategorie wie diese RAM Aussagen von vor 25 Jahren.
Kompletter Käse. Die billige Lösung, das ist der DDR, wird immer da sein. HBM lohnt
sicher für Premium Produkte, und das dürften wohl kaum mehr als 10 oder 20 Prozent
des Marktes sein in den nächsten 10 Jahren. Und totgesagte leben eh länger.
 
Zurück
Oben