News IBM stellt Microns „Hybrid Memory Cube“ her

@Redirion

Der Speichercontroller wird weiterhin intern in der CPU/GPU bleiben. Speicherriegel haben einen eigenen Speichercontroller der die Daten auf die einzelnen RAM-Chips verteilt. Ich glaube der ist in diesem Fall gemeint.

@Stromverbrauch

Bei Übertragungen wäre der neue Speicher schneller fertig als der alte. Heißt der alte hat einen längeren Last-Verbrauch. Wie groß nun die Unterschiede im Idle sind kann man leider nicht sagen. Also sind die Rechnungen hinfällig.
 
Zuletzt bearbeitet:
Ihr seht das falsch. Guckt doch mal auf die folie.
Der block braucht 1/8 der energie PRO BIT die der standard ram braucht.
Ob man das jetzt in leistungssteigerung oder energieeffizienz umwandelt muss man je nach anwendungsgebiet abwaegen.
 
geht in die richtige richtung. weiter so!

gibt es eigentlich schon irgendwelche pläne oder roadmaps für DDR4-RAM?
 
Es heißt doch im Artikel, dass sich der Pro/Watt Angabe auf die Bandbreite bezieht und nicht auf die Speichermenge... Okay...
Da so ein HMC in der aktuellen Version aber auch nur über 512MB Kapazität verfügt, muss man mehrere HMC's verbauen, um die Kapazität zu erhöhen. Damit steigert sich dann ergo die Bandbreite (wahrscheinlich unnütz wenn die CPU/GPU/APU das nicht ausnutzen kann) aber vorallem auch der Stromverbrauch.

In der Aktuellen Version ist HMC dem DDR Speicher also bis auf die Bandbreite in jeder hinsicht weit Unterlegen.
HMC würde erst Wirtschaftlich sinn machen, wenn die Kapazität pro Baustein mindestens doppelt so hoch als bei den DDR Bausteinen.
 
512mb-1gb hmc per silicon-interposer an ne apu geflanscht und ab geht die luzi. das wäre auch ne möglichkeit für die nächste konsolen generation.
 
Zuletzt bearbeitet:
Wollte Intel nicht beim Haswell das Cache-System neu machen oder ist das mittlerweile vom Tisch? Bei zu Ivy gab es ja auch schon Gerüchte über gestappelte Chips für den Grafikspeicher. Vielleicht kommt ja so etwas zum tragen? Denkbar wäre es ja. Mircon arbeitet schließlich mit Intel zusammen an Flash-Speicher.

@unter mir
Hab ich doch geschrieben ;)
 
Zuletzt bearbeitet:
bei ivy teilen sich wohl gpu und cpu den l3-cache, wenn ich mich richtig erinnere und für haswell steht wohl was ganz neues an.
 
Zuletzt bearbeitet:
Laut Wikipedia:

Die erste Grafikkarte, in der GDDR5 zum Einsatz kam, ist die ATI Radeon HD 4870, die in den ersten Versionen über 512 MB GDDR5 Speicher (0,56ns @ 1,8 GHz und 115,2 GByte/s) verfügt.

Die HD6970 kommt laut GPU-Z auf 176 GBit/s.
 
Dann hat die integrierte GPU kein Bandbreitenproblem mehr. Ein lianoähnlicher APU Nachfolger könnte dann richtig was reißen.
 
spcqike schrieb:
gerechnet 4W fuer 4GB aktuellen RAM gegen 8W fuer 512MB? ôo heißt theoretisch 16W fuer 1GB, bzw 64W fuer 4GB ... was ja eine ver16fachung des verbrauchs bedeutet.

was bringt einem otto normalanwender 0,5GB verdammt schneller speicher, der die daten garnich so schnell bekommen kann da die platten und co diese nich so shcnell loswerden? wenn etwas gecached werden muss?

e* zur kühlung und fläche. guggt einfach ma die bilder an, die in den news stehen. klein und sachte sieht anders aus.

du sollst nicht die grösse skalieren, sondern die geschwindigkeit bzw. leistung:

8W nicht bei 512 MB sondern bei 128 GB/s und 16W wären nicht bei 1GB, sondern bei 256 GB/s. damit das klar ist: wenn 512MB modul 256 GB/s leisten würde, würde er höchst wahrscheinlich mehr als 16W verbrauchen ;)
 
immer diese Pessimisten.
Das Teil bringt also eine X-Fache Bandbreite mehr, das ist zunächst schonmal da gut, wo Bandbreite koste es was es wolle, wichtig ist.
Dann wirds weiter verbessert und entwickelt sich, und wird massentauglich oder eben nicht.
Solange sich damit Geld verdienen lässt, und das geht mit Sicherheit vergleichweise einfach, wird das Produziert, IBM macht das ja nicht aus spaß, die wissen schon was sie tuen, und das bedeutend besser als viele andere.
 
Zurück
Oben