News Samsung produziert erste GDDR4-Chips

Christoph

Lustsklave der Frauen
Registriert
Jan. 2002
Beiträge
3.100
Was kommt nach der 3? Richtig, die 4. Das dachte sich auch Samsung und machte sich auf, den Nachfolger von GDDR3-RAM für Grafikkarten zu entwickeln. Die Chips, die auf den überaus logischen Namen GDDR4 hören, wurden nun erstmals von Samsung gefertigt und erste Samples wurden bereits an eine Vielzahl Kunden geschickt.

Zur News: Samsung produziert erste GDDR4-Chips
 
Nicht schlecht, aber schön wäre es an 512Bit Speicheranbindungen zu arbeiten, sofern ich hier nicht ein technische Hürde übersehe.

Kann mir einer mal die Rechnung posten, wie ich von Takt auf Bandbreite komme unter Berücksichtigung der Speicheranbdingung?

Fubar
 
Also eigentlich 2,5 GHz * 256 Bit / 8 = 80 GB/s
Wieso da jetzt 75 GB/s drin steht, kA ..

Aber auf 512 Bit erhöhen, würde eine verdoppelung der Bandbreite bedeuten! So einfach wird das auch nicht gehn - mal eben auf 512 Bit.
Und wenn man bedenkt, dass der Durchsatz jetzt schon doppelt so hoch wie bei aktuellen Topmodellen ist und mit 1,4 GHz (2,8GHz DDR) nochmal mehr wird.
 
Zuletzt bearbeitet:
Man sollte aber nicht ausser acht lassen, dass die GPU der Grafikkarte die extremschnelle Speicheranbindung auch nutzen können sollte. Immerhin reden wir hier von 78GB/s was doch recht beachtlich ist.
 
Sehe ich das richtig das...

1. Die Speicherchips den Durchsatz gar nicht packen um ihn "durchzupumpen"

2. Die GPU nicht genügend Daten liefern kann in der Geschwindigkeit

3. Nicht auch die Karten wesentlich wärmer werden?

zu 3. Ist das nicht auch der Grund warum Notebook Grafikkarten nur 128Bit Speicherinterface bekommen?
 
ich denke das liegt am layout:
wenn man sich heutige Grafikkarten ansieht, denkt man vielleicht auch mal an die Arbeit das ganze zu 'Routen' - immerhinn 8 Layer wenn ich mich nicht irre...
512bit anbindung würde doppelt so viele leitungen zum Speicher heißen.
da stellt man sich die frage:
benötigt man die 60Gb/sec ?
 
richtig 512bit würde ein komplexeres layout bedeuten, da ist es wesentlich einfacher schnelleren speicher zu verwenden
zumal ja jetzt wieder ausreichend schneller speicher vorhanden ist(1,26ns) welche ja fast 800mhz bedeuten
allerdings wird der speicher für die nächste generation wieder zu lahm sein, aber da kommt ja jetzt rechtzeitig gddr4
 
Ich frage, weil ich momentan die ganzen Grafikkartengenerationen für völlig überzüchtet halte.

Es werden immer höhere Taktraten geschaltet, immer mehr Pixelpipelines in die Chips gepresst während es andere Möglichkeiten gibt, die Karten effizienter laufen zu lassen.

Die Chips und deren Befehler werden kaum noch optimiert.....momentan macht man es sich recht einfach.....so erscheint es auf den ersten Blick.

Weil 500€ für eine neue Grafikkarte, die der anderen kaum Fortschritte biete und Zwischengenerationen zur Überbrückung bis neue Befehle implementiert sind, finde ich ehrlich gesagt frech, jedoch verständlich, da der Kunde diese Karten kauft.

Das soll hier in keinster Weise als Pöbeln oder sogenanntes "Flaming" aufgefasst werden. Ich möchte lediglich die Diskussion ankurbeln.
 
Cool, dass die endlich kommen. Jetzt müssen die grafikkartenhersteller die nur noch verbauen und wir dürfen uns evtl. auf endlich kein texturenmatsch mehr freuen (gibt es immer noch bei aktuellen spielen wie F.E.A.R. wenn ich z.B.eine zeitung im nahen lesen will).
 
@8: Ich kann mir kaum vorstellen, dass die Chips und die Befehle nicht optimiert werden.
Natürlich gibt es momentan immer wieder Refresh-Chips, aber das liegt ja hauptsächlich daran, dass sich das Karusell bei Grafikkarten extrem schnell dreht und eigentlich alle halbe Jahr eine neue Generation auf den Markt geworfen wird.
Da bleibt halt nicht jedes Mal Zeit für komplette Neuentwicklungen. Der Geschwindigkeitssprung von Gforce4 auf 5 z.B. war nicht soo gewaltig, der von 5 auf 6 dafür sehr stark, weils ne Neukonstruktion war. Von 6 auf 7 sind die Sprünge insgesamt auch wieder kleiner, dafür in manchen Bereichen doch wieder sehr stark.
Teilweise ist aber eine Gforce7 in hoher Qualität fast doppelt so schnell als eine Gforce6. Dabei hat sie nur 8 Pixelpipes mehr und läuft mit etwas mehr Takt und besserem RAM... also muss da ja schon etwas optimiert worden sein... und zwar gewaltig.
 
Optimiert auch - aber da wurde auch ziemlich an der bildqualität gespart. Der antiisotropische filter ist winkelabhängig und die ganze grafik flimmert ziemlich (man MUSS high quality nutzen um halbwegs normal aussehende texturen zu bekommen)
 
@z1erer
Wo steht da denn 75 GB/s, wurde das zwischenzeitlich geändert?
Der Wert wäre nähmlich richtiger als 80GB/s, wenn man berücksichtigt das 1kB 1024 Byte sind.
Ansonsten macht man ja denn gleichen Fehler wie die Festplattenhersteller.
Ich komme auf einen errechneten theoretischen Wert von 74,5.... GB/s
 
@11
nö auf hq hat der g70 gleich gute bildqualität wied er nv40
und ist trotzdem überproportional schneller
das hat aber wohl mehr mit den neuen pixelshadern zu tun als mit optimierungen
 
naja wen ati diese chips nächstes jahr einbaun schätze ich wird es nicht lange dauern bis nv nachzieht! also bedeutet das nur a weng weniger arbeit für ait als für nv!

mfg adi
 
Ich hab mich das schon länger gefragt, vlt. kann es mir einer von euch sinnvoll erklären. Warum kann man GDDR3 (bzw. 4) nicht auch für den System-RAM verwenden? Stattdessen entwickeln Infineon & Co. "richtige" DDR3-Module. Was ist an den GDDR-Modulen so anders, das an einem Einsatz als System-RAM scheinbar nichtmal ansatzweise von einem Hersteller gedacht wird?

Ich mein, wenn DDR3 entwickelt wird braucht man eh wieder neue/veränderte Speichercontroller, warum sattelt man dann nicht gleich auf den verfügbaren und hochqualitativen GDDR3-RAM, eine Grafikkarte kommt damit ja auch zurrecht. Zwar steht oben im Text "speziell auf Grafikkarten optimiert"... aber wie sehen die Optimierungen aus, bzw. wo liegt der Grund, das man sie nicht, wenn auch mit minimalen Änderungen, als System-RAM einsetzen könnte.
 
ich glaub weil des speziele speicher für grafik anwendungen ist (glaube zumindest das gddr=graphikdoubledatarate heißt!) und man halt net sollche bausteine auf herkömliche arbeitsspeciher verbauen kann da diese bausteine zu speziel sind!

mfg adi
 
lol adi... zwar ein danke für deine mühe, aber was GDDR heißt, wusst ich scho, das sie speziell sind auch (steht ja alles in meinem Post), nur mich würde interessieren, was _genau_ (der technische Hintergrund) ist. Ich meine, die Grafikkarte kann doch mit ihrem RAM auch umgehen mehr oder weniger "wie sie will", das technische prinzip müsste sich doch fast problemlos auf den System-RAM übertragen lassen, da man ja eh einen neuen Controller dafür bräuchte, und in diesem könnte man ja die Änderungen vornehmen, die nötig sind, GDDR auch als System-RAM anzusprechen. Verstehst du?
 
Ohne es genau zu wissen vermute ich das Problem der Leitungslänge und der damit verbundenen Signallaufzeit.
 
Wäre denkbar. Andere Frage wäre, ob man bei GDDR3/4-RAM als System-RAM seinen RAM auch aufstocken könnte, oder ob es da Probleme gibt. Ich hab zwar schon Quadro-Karten von NV gesehn, bei denen man RAM zusätzlich aufstocken konnte, nur weiß ich nicht ob das GDDR war, denn das war schon einige Jahre her und wird heute ja auch nicht mehr praktiziert.
 
Zurück
Oben