News Rambus greift GDDR5-Speicher an

Ich für meinen Teil glaube auch nicht das sich dieser durchsetzten wird genauso wie damals bei dem Rambus selber(weiß nimmer wie des hieß mussma ja auch nicht) kann mir nicht vorstellen das AMD auf Rambus setzten wird Nvidia sowieso nicht , bei Intel könnte das so ne Frage sein die haben das schoneinmal mitgemacht vielleicht haben die daraus gelernt. Binn mal gespannt wies da weitergeht und vor allem ob das Produckt auch Preismäßig mithalten kann.
 
DJMadMax schrieb:
... Sie haben schon zu P3-Zeiten gezeigt, was technisch zu finanziell bezahlbarem Aufwand möglich ist ...
Also bei der in der bisherigen Geschichte mit Abstand teuersten Spielekonsole wäre ich mir nicht so sicher, ob das wirklich alles "im bezahlbaren Rahmen" ist. ;)

Was zählt ist nicht Leistung allein, sondern Preis zu Leistung - man könnte sicherlich auch für den zehnfachen Preis eines heutigen High-End-Desktop-Prozessors einen viermal so schnellen Desktop-Prozessor bauen, aber haben will das sicher kaum jemand und beim Speicher ist das eben genauso. Ich will jedenfalls keine 1000-Euro-Desktop-Grafikkarte, egal wie schnell die ist.
 
Zuletzt bearbeitet:
+ Guter Speicherhersteller
- Verklagen alle
- Teuer
- Rambus Ram hat sich gerade mal 1/2 Jahr aufem Markt gehlten

Ich sehe im Computerbereich keine Change PS3 und Konsolen Vlt.
 
Mir ist der Name "Rambus" schon länger ein Begriff. Ich hatte damals 512MB 1066er RAmbus, dann auf 1024MB umgerüstet, Das war damals im ASUS P4T533-C. Damit konnte man im Server und sogar Spielebereich einiges toppen. Später habe ich ihn dann abgelöst, als Speichergröße im Vergleich zur Geschwindigekit wichtiger wurde (siehe heutige Systeme mit 2 oder 4GB+).

Wer glaubt der Speicher musste hinter DDR1 zurückstecken, hat sich gewaltig geschnitten. Der RAMBUS war mörderschnell, aber leider auch sauteuer. Der Preis und die veralteten Chipsätze des Pentium 4 waren der Tod. Ich habe ihm lange hinterher getrauert, denn DDR hat nie diese Klasse erreicht.

Als Fazit würde ich sagen: Der Chipsatz macht es. Da hilft auch der schnellste Speicher nichts. Man vergleiche heutige C2D-Speicherzugriffe auf DDR3 im Vergleich zur Nehalem-Architektur (aktuelles Beispiel). Der Unterschied von GDDR3 zu GDDR5 fällt schon riesig aus. Wenn man jetzt bedenkt, dass der XDR2 von RAMBUS das ganze nochmal toppt, kann einem fast schwindlig werden.

Ob sich XDR2 im PC-Markt durchsetzt, bezweifle ich noch etwas. Es wird eher in die Multimedia und Handybranche wechseln, wo man wie in der Playstation 3 ja deutlich sieht.


[Offtopic]
An sich müsste auch der Name von (G)DDR5 so langsam geändert werden. Double Data Ram war es bei DDR1 und 2. Mitlerweile erlangt man mit der Frequenz weniger Performance als mit Parallelisierung von Speicher - siehe Dual- bzw. Tripple-Channel. Eigentlich müsste man solchen Speicher theoretisch Dual-DDRx (DDDR) und Triple-DDRx (TDDR) nennen. Ist nur ein Scherz, aber ihr wisst, was ich meine! :evillol:
[/Offtopic]


Grobe Historie

DDR1: Zweifacher Prefetch, Frequenz bis 400 MHz

DDR2: Vierfacher Prefetch, bei doppelter Frequenz (533 bis 1200 MHz). Spannung gesenkt auf 1,8V

DDR3: Achtfacher Prefetch, bei etwa 1/3 bis 1/2 mehr Frequenz als DDR2 (1066 bis zurzeit 2000 MHz). Spannung demnächst 1,65V oder darunter (wegen anfälligen Nehalemspeichercontroller?).

GDDR3: Mischung aus DDR2 und 3, besitzt aber keinerlei festgesetzte Spezifikationen. Häufigster anzutreffender Grafikspeicher in heutigen Grafikkarten.

GDDR4: Keine, kaum Vorteile zu GDDR3. Deshalb in Versenkung verschwunden. Der Markt hofft auf GDDR5, bei dem sich alles ändern soll.

-Grafikkarte mit GDDR4-RAM: "ATI RAdeon 1950 XTX".

GDDR5: Weiterentwicklung von GDDR3, höhere Performance als GDDR3, doch sehr stark abhängig von gewählten Timings/Taktraten.

-Berühmte Beispiele für Grafikkarten mit GDDR5: "ATI Radeon 4870".


RAMBUS:


XDR1: Verbesset Datendurchsatz im Vergleich zu DDR-Speicher durch andere Verfahren, jedoch teurer wegen hoher Lizenzkosten. Massenmarkt bleibt auf DDR-Technologie.

XDR2: Weiterentwicklung von XDR1. Schneller als GDDR3 bzw 5. Kosten wahrscheinlich höher als DDR. Zukunft ungewiss! Bekannte Firmen wie Sony (Playstation 3) und IBM (Cell Blades) nutzen XDR-TEchnologie/Speicher.

Spekulation:
Ein XDR2-Kanal kommt mit 8 oder 16 Datensignalleitungen aus und überträgt mindestens 16 Gbyte/s – also etwa genauso viel wie zwei Kanäle mit PC2-8500-DIMMs aus DDR2-1066-Chips (als Dual-Channel?).
 
Wohl zu spät ... die 4870 läuft mit dem GDDR5 gut. Die Kritiken vor 4870 Launch "Die Speicher laufen am Ende" haben sich auch nicht bewahrheitet. Erste Ankündigungen zu noch schnellerem GDDR5 Speicher gibt es bereits (Massenfertigung ~Q1 2009). Der Zug ist, was den Grafikkartenmarkt betrifft, abgefahren. ATI wird sicherlich beim GDDR5 bleiben, was Nvidia macht ist die andre Sache. Ich hab bezüglich der neuen Serie noch nichts über GDDR3 (größerem SI) vs GDDR5 (kleinerem SI) gehört. Im Hintergrund, dass auch Nvidia von Rambus verklagt wurde, halte ich eine solche Zusammenarbeit auch für rel. unwahrscheinlich
 
Bei der Überschrift dachte ich zuerst, dass die schon wieder anfangen die ganze Branche zu verklagen.
Das Problem mit dem XDR ist halt, dass so ein Speicher nicht nur Leistung und Effizienz haben muss, um sich im Markt durchzusetzen.

digger66a schrieb:
Ohne Rambus hätten wir heute immer noch EDO-Ram

Es ist nunmal Fakt das sie alle bekannten speicherstandards ob sdr, ddr, ddr2,ddr3,gddr3,gddr4,gddr5 enwickelt haben(oder zumindest schlüsselteile davon)

Deshalb verstehe ich auch gar nicht warum sich alle beschweren das sie nun Firmen wie Nvidia verklagen weil die sich weigern für Rambus arbeit Lizensgebühren zu bezahlen.
Naja wenn man Lizenzgebühren für 10 Patente haben will und vor Gericht bleibt davon ein einziges übrig, was soll man dann noch sagen?
Ist natürlich ein Problem des Patentsystems, wenn die Branche so vorgeht, dass sie sich auf einen gemeinsamen, offenen Speicherstandard einigt und ein anderer Hersteller viele Patente zugesprochen bekommen hat.
Die Hersteller werden die Techniken dieser Patente kaum integrieren, weil sie sich somit von diesem Hersteller abhängig machen und dieser sich nach einer Weile dumm und dämlich verdient, Ausnahmen bestätigen die Regel. Ergebnis ist stattdessen, dass die Ideen hinter den Patenten nicht angewendet werden können und niemand davon profitiert (haben also keinen Wert für die Wirtschaft) und natürlich der Patenthalter kein Geld verdient. Gegenseitige Blockade, juhu!
 
also das RAMBUS "mörderschnell" war würde ich nicht behaupten. In der Theorie und der maximalen Bandbreite waren sich hochüberlegen, doch wir selber hatten damals praktisch keinen Vorteil bemerkt bei den Xeon Workstations (P3-Basis)
Der Chipsatz hat sogar echte Probleme

Mit dem P4 und den ersten Xeon Derivaten auf Sockel 423 und I815er Chipsatz konnte man kurze Zeit endlich was spüren gegenüber dem SD-RAM (In Verbindung mit P3 und P4). (Vorallem hatte der PC800er RAmbus schon damals ein Dualchannel-interface)
Doch leider kam dann AMD mit DDR1-266 und damit war schnell klar, wer hier das sagen hat.

Die Preisleistung war TOP und intel konnte nach einen Jahr auch endlich auf DDR umsteigen.
Am Ende bekam sogar der DDR1 bei AMD mit dem nforce2 den Dualchannel und intel führte es mit dem i865 Springdale ein.

Auch wenn RAMBUS danach mit 128bit Speichermodulen, PC1066er Takt und weiteren Spielerein immer wieder versucht hat die Führung zu behalten, der DDR war viel günstiger und kaum schlechter.

Außerdem will ich gar nciht wissen, wie aufwendig der Speichercontroller einer Grafikkarte seien muss um XDR2 direkt anspechen zu können.
 
ExcaliburCasi schrieb:
die beste Technologie sollte sich auch durchsetzen .../quote]

Am Bespiel von Windows und x86 sieht man ja, daß dies nicht der Fall ist. :rolleyes:


Livven schrieb:
Und ob es sich wirklich lohnt, teure Lizenzgebühren zu zahlen, wenn man den nötigen Speicherdurchsatz (das isr nämlich der vermeintliche Vorteil von XDR2) auch mit GDDR5 oder gar GDDR3 und einem großen (sagen wir 512-bittigem) Speicherinterface (wie es zur Zeit nVIDIA vormacht) erreichen kann?

Ja, es würde sich lohnen, denn XDR kommt mit weniger Leitungen aus und ermöglicht kleinere (und auch weniger) Speicherchips bzw. kompaktere GPUs. Braucht man mehr Leistung kann man einfach mehrere Kanäle bündeln, während ein immer breiteres Speicherinterface auf herkömmlicher Basis das Design wesentlich komplexer macht und die Kosten in die Höhe treibt. (Laufzeitverschiebung der einzelnen Signale, teurere PCBs, mehr Speicherchips nötig usw.)

crux2003 schrieb:
Außerdem will ich gar nciht wissen, wie aufwendig der Speichercontroller einer Grafikkarte seien muss um XDR2 direkt anspechen zu können.
Zumindest würde er mit weniger Pins auskommen und somit kompaktere GPUs ermöglichen.
 
Rambus solten lieber ein paar weniger Anwälte einstellen und dafür ordentliche, bezahlbare Produkte entwickeln.
Die setzen sie NIE (!!!!) durch, nicht in tausend Jahren! Sie sind VIEL zu teuer! Die Speichergeschwindigkeit ist nur ein so kleines Leistungsmerkmal, dass es niemals einen z.B. doppelten Preis rechtfertigt!

Schaut euch doch mal im Desktopbereich DDR3 an - Theoretisch doppelt so schnell, aber jeder klagt darüber und will bei DDR2 bleiben! Der Core i7 leidet stark unter DDR3. Nicht weil das so schlecht ist, nur es ist halt einfach doppelt so teuer, als DDR2 und in Standard-Anwendungen ist die Mehrleistung im Promillebereich, von Winrar mal abgesehen.
Lieber habe ich 1 GB GDDR5, als 512 MB XDR2-RAM! Ersteres bringt einfach viel mehr. Die Speicherbandbreite kann ich dann immernoch mit einem stärkeren Bus realisieren, wie es Nvidia momentan eindrucksvoll vormacht und ATI mit der HD2900 schon lange gezeigt hat
 
Auf dem Papier mag ja Rambus besser sein, aber was nützt das, wenn die Herstellungskosten respektive die Speicherchips zu teuer sind? Zudem müssten die Grafikkartenhersteller wohl auch ihre Chips neu designen, damit sie mit Rambus zurechtkommen. Mit GDDR haben viele schon eine langjährige Erfahrung, von daher muss sich der Umstieg schon wirklich lohnen (also nicht nur der Preis, sondern auch die erzielte Mehrleistung müssten überzeugen). Zudem ist Rambus ja auch nicht gerade derart beliebt, was im Grenzfall das Urteil zu deren Ungunsten verschieben dürfte.
 
Wird sich wohl erst lohnen, wenn die DDR Architektur an ihre (überhaupt vorhandenen?) Grenzen stößt...
 
Letzlich denke ich, das der Preis darüber entscheiden wird. Wenn die XMS2 Chips zum gleichen Preis produziert werden können und natürlich auch verkauft werden, könnte RAMBUS doch den Checkpot knacken.

... aber so auf den ersten blick ist es doch schade, dass eine schnellere technologie durch streitigkeiten unter den firmen nicht auf den markt kommt. darunter leiden im endeffekt nur die kunden
Das gibt es leider oft - z.B.: VHS und Betamax / Video 2000 - ich glaub da war die Quali von Betamax besser als VHS...
 
digger66a schrieb:
Ohne Rambus hätten wir heute immer noch EDO-Ram
[...]
Ohne Rambus wären wir nch in der speichersteinzeit das darf man nicht vergessen.

:lol::lol:

Außer Rambus gibt es auch noch andere Firmen/Menschen auf der Welt die Speicher entwickeln können.
 
Also zu P4-Zeiten war ich Stolz auf meinen RDRAM... :-) Das größte Problem ist wohl der hohe Preis, schade eigentlich!
 
An der sinnfreien Spekulation über Preise, werde ich mich nicht beteiligen.
Aber gut lesen sich die Daten auf jeden Fall. Wenn der Speicher nich zu teuer wird, wäre er - vorrausgesetzt meine Hardware profitiert davon - meine erste Wahl.
 
Hardware_Hoshi schrieb:
...Das war damals im ASUS P4T533-C. Damit konnte man im Server und sogar Spielebereich einiges toppen.

(...)

Als Fazit würde ich sagen: Der Chipsatz macht es. Da hilft auch der schnellste Speicher nichts. Man vergleiche heutige C2D-Speicherzugriffe auf DDR3 im Vergleich zur Nehalem-Architektur (aktuelles Beispiel).

Hehe, dann hattest du das gleiche Board wie jenes, das ich damals meinem Vater besorgt hatte. Er hatte die Vorgabe einen bezahlbaren, aber dennoch flotten Videoschnitt-PC haben zu wollen, natürlich ging da kein Weg an RD-Ram vorbei. Das von dir angesprochene P4T533-C hatte ja sogar den besonders schnellen 32 Bit RD-Ram, der (wenn ich mich recht entsinne) ein paar mehr Pins aufwies, als die 16 Bit RD-Ram Variante. Desweiteren liefen die Infineon Blackmagic-Module (die ich hier irgendwo sogar noch rumgeistern habe) auf diesem Board anstandslos auf 1066 Mhz.

Das Anschaffungsjahr müsste Mitte/Ende 2002 gewesen sein, der Preis war definitiv deutlich unter 1000 Euro (mein Dad war damals - und ist heute kein Krösus). Das System hatte Bestand bis irgendwann 2006 (und würde, wenn seine Ansprüche in Bezug auf Performance mit z.B. Photoshop und Premiere nicht gestiegen wären auch noch immer reichen).

Ich verstehe daher nicht, wieso alle gleich propagieren, dass der Speicher, wenn er denn am Markt Fuß fassen könnte, so teuer werden "muss" (so liest es sich hier sehr oft heraus).

Ich bin offen für so ziemlich alles neue, was technische Neuerungen und Generationswechsel angeht, solange ich als Endverbraucher daraus auch einen Nutzen ziehen kann - die Grafikkartenhersteller werden schon gut kalkulieren und entsprechend abwägen, welcher Speicher für ihre Karten rentabler ist.

Und der Chipsatz! Ohja, das ist eine wichtige Sache. Das war sie schon zu SD-Ram Zeiten (und sicher auch davor, wobei ich als Jungspund kurz nach der Konfirmation noch keine Ahnung von verschiedenen Chipsätzen für jeweilige Prozessoren hatte ^^). Jedoch habe ich seit etwa 1995 so ziemlich alles im Desktopsegment mitgemacht, was es mitzumachen gab. Gleicher Prozessor und Arbeitsspeicher können auf einem langsamen Chipset durchaus bis zur Hälfte langsamer sein (z.B. ohne Dual/Multi-Channel Unterstützung).

Cya, Mäxl
 
Zuletzt bearbeitet:
CHAOSMAYHEMSOAP schrieb:
Zumindest würde er mit weniger Pins auskommen und somit kompaktere GPUs ermöglichen.
Stimmt so nicht, man muss das differenziert sehen.
Ein GDDR5-Controller mit 32 Bit Datenbreite benötigt 61 Pins, siehe Kapitel 2 im GDDR5-Whitepaper von Quimonda:
http://www.qimonda-news.com/download/Qimonda_GDDR5_whitepaper.pdf
Ein XDR2-Controller mit 32 Bit Datenbreite benötigt aufgrund der differentiellen Datenleitungen alleine schon 64 Datenpins. Hinzu kommen noch die Adress-, Befehls- und Taktpins. Allerdings genügt bei XDR2 für die gleiche Datenrate wie bei GDDR5 ein halb so breiter Speichercontroller, so dass die Pinzahl letztendlich doch geringer ausfallen kann. In diesem Fall entfällt aber der Performancevorteil.

Außerdem erschweren die differentiellen Datenleitungen das Routing, denn ein differentielles Leitungspaar muss immer exakt gleich lang sein und möglichst parallel geführt werden, damit sich Übersprechen von anderen Leitungen auf beide Leitungen des differentiellen Leitungspaares gleichermaßen auswirkt. Bei GDDR5 sind die Datenleitungen single-ended und dank dem Datentraining müssen die Datenleitungen auch nicht exakt gleich lang sein.

XDR2 ist mit Kompromissen verbunden, die höhere Datenrate kann mit der bestehenden Technologie nicht aus dem Nichts herbeigezaubert werden.
XDR2 dürfte zudem bei gleicher max. Datenrate langsamer als GDDR5 sein, weil pro Befehlstaktzyklus und Datenleitung ganze 16 Bits und nicht nur 4 Bits wie bei GDDR5 übertragen werden. XDR2 arbeitet dadurch tendentiell etwas ineffizienter.

Übrigens ist die Angabe von max. 6 Gbps bei GDDR5 veraltet, Hynix hat ja erst in der vergangenen Woche GDDR5-RAMs mit 7 Gbps vorgestellt.
 
Zuletzt bearbeitet:
Liest sich auf dem Papier wie schon erwähnt sehr gut, nur wird er sich gegenüber z.B. GDDR5 nicht durchsetzen, da

- Viele Firmen, die ihn etwa für GPUs verbauen könnten mit RAMBUS lange im Clinch waren
- Der Preis sicher deutlich höher sein wird als der von GDDR5
- Die Architektur gegenüber GDDR5 auch gewisse Nachteile (siehe einige Posts über mit) hat

Der Hauptvorteil wäre wohl, dass damit rein theoretisch GraKas ein niedriges SI bräuchten um (auf dem Papier zumindest) eine sehr hohe Speicherbandbreite zu haben (1.6 GB pro Bit Speicher - Interface -> wäre etwa bei 128 Bit 204.8 GB/s !!! , bei 256 Bit schon 409.6 GB/s, bei 384 Bit SI 616.4 GB/s, bei 448 Bit SI 716.8 GB/s und bei 512 Bit SI stolze 819.2 GB/s !!!

Aber irgendwie glaube ich, dass dieser massive Durchsatz (ab 256 Bit SI) kaum richtig genutzt bzw. weiterverarbeitet werden kann, wenn die Anbindungen auf dem MoBo nicht einen ähnlichen Quantensprung in Sachen durchsatz mit sich bringen würden.


Fazit: Für IBM oder Konsolen wie die PS4 (die 3er setzt ja, wie schon erwähnt auf XDR - RAM) schon eher zu gebrauchen - wenngleich ich bei den möglichen (und sicher NICHT finalen Specs der PS4 gelesen hab, dass man angeblich auf GDDR5 setzen möchte, wobei es nach 2010 sicher schon längst GDDR6 oder 7 geben wird.

So long,
Edge
 
Edgecrusher86 schrieb:
Aber irgendwie glaube ich, dass dieser massive Durchsatz (ab 256 Bit SI) kaum richtig genutzt bzw. weiterverarbeitet werden kann, wenn die Anbindungen auf dem MoBo nicht einen ähnlichen Quantensprung in Sachen durchsatz mit sich bringen würden.

Und ein 256-Bit-SI mit XDR2 ist in Punkto Pinzahl schon so aufwändig wie ein 384-Bit-SI mit GDDR5 und in Punkto Routing sogar aufwändiger als dieses. Ich denke, dass XDR2 eher bei 128-Bit-SIs, bestenfalls 192-Bit-SIs eingesetzt werden wird. Bei einem 256-Bit-SI mit XDR2 hat man schon 512 Datenleitungen mit einer Taktfrequenz von 3,2 bis 6,4 GHz. Das dürfte die PCBs ziemlich teuer machen. Zudem müssen die GPUs auch erstmal bis zu 12,8 Gbps auf einer Leitung verarbeiten können. Da wird man SI-intern schnell in die Breite gehen müssen.

Aber mal schauen, was die IHVs von XDR2 halten. Bei AMD/ATI halte ich einen Umstieg auf XDR2 schon für ausgeschlossen, die sind mit GDDR5 sehr gut bedient.
Bei Nvidia würde ich es nicht ganz ausschließen, die haben GDDR3 schon ausgereizt mit dem wahnsinnigen 512-Bit-SI @ 1,1 GHz und ein 256-Bit-SI für XDR2 wäre letztendlich wohl auch nicht aufwändiger, aber deutlich schneller.
 
Zuletzt bearbeitet:
Hardware_Hoshi schrieb:
... Gleicher Prozessor und Arbeitsspeicher können auf einem langsamen Chipset durchaus bis zur Hälfte langsamer sein ...
Also es gibt genügend Tests seit der Etablierung des Internet als Hardwaretestplattform in denen klar erkenntlichg ist, dass so extreme Leistungsunterschiede nicht existieren. Das extremste war der Unterschied zwischen Dual- und Single-Channel bei dessen Markteinführung und der betrug bis zu 10%. Nividia leistete sich dann mit dem Nforce3 150 eine solche "Glanzparade" der Peinlichkeit, ansonsten sind die Leistungsunterschiede zw. Chipsätzen für die gleiche Plattform nicht größer als 2%. ;)
 
Zurück
Oben