News HD 3870 mit GDDR3 schneller als mit GDDR4?

Selbst wenn wir davon ausgehen, dass die GDDR3-Karte dann schneller sein wird (was aufgrund der Timings nachvollziehbar wäre), kann man ebenso davon ausgehen, dass der Unterschied so gering sein wird, dass man ihn vernachlässigen kann.
 
lenny.chem.dat schrieb:
...Ich verstehe nämlich nicht, wo die Architektur hier eine Rolle spielen sollte, die Radeon hat ja auch "nur" ein 256Bit Interface.

Darum geht es hier ja eben. Speicherinterface und Speichertakt sind eben nicht alles. Wie schon vorher festgestellt wurde, spielen auch andere Faktoren eine Rolle, wie zum Beispiel die besagten Timings.

Was bringt einem eine gewaltige Bandbreite, wenn die GPU immer wieder ins leere läuft, wenn Timing gefragt ist? Die GPU wird so gesehen in Cyklen mit Daten versorgt. Steigende Timings = steigende Zeiten zwischen den einzelnen Cyklen.
 
Ich bitte euch...
wen verwundert denn bitteschön diese News hier?

Es liegt doch schließlich alles auf der Hand!
CB schafft es tatsächlich immer wieder einige Leser mit derartigen
Meldungen durcheinader zu bringen.
Und ja - es liegt an den Latenzen!

Manche Leute sind wirklich sehr vergesslich, daher -> *klick*

Wie ihr also seht - es war schon immer so...
Ob der erste GDDR5 den 0,83 ns GDDR3 von Samsung schlagen wird,
wird sich auch erst noch zeigen und ist eher unwarscheinlich.

Und wird auch wohl immer so bleiben...
Obwohl es nicht vergleichbar ist - bei DDR2 und DDR3 erleben wir
doch gerade das Selbe in Grün.
Die hochgetakteten DD2 Module der "alten" Generation schlagen
den neuen DDR3 um längen (wobei es hier zugegebenermaßen an
der Hardwareausstattung bei Intel und AMD liegt) und machen den
aktuellen DDR3-Hype im Grunde überflüssig. Bis der DDR2 wirklich einmal
obsolet wird, vergeht noch einiges an Zeit.

@ FooFighter:
Richtig, das vielzitierte "SI" (und dessen oftmals nicht begriffene Funktionsweise)
ist bei den heutigen Karten absolut ausreichen. Leute die 512-Bit SIs fordern
haben schlichtweg keine Ahnung.
Die aktuellen Karten von Nvidia und Ati kommen wunderbar mit einem "nur"
256-Bit Interface zurecht. Das genügt vollkommen - insbesondere wenn ein guter,
schneller GDDR3 (und demnächst der GDDR5) verbaut werden.
Das 256-Bit SI reicht locker für Speichergrößen von bis zu einem Gigabyte!
 
Zuletzt bearbeitet:
fRe@KAdellE schrieb:
...Ob der erste GDDR5 den 0,83 ns GDDR3 von Samsung schlagen wird, wird sich auch erst noch zeigen und ist eher unwarscheinlich.
...[/U][/B]

Das alles lässt auch AMDs Ankündigung, auf die kommenden R4xxx zunächst DDR3 zu verbauen auch in einem ganz anderen Licht erscheinen. Dazu gab es erst kürzlich einen ganz Interessanten Fred hier auf CB. Warum auch nicht, Leistungseinbußen erwarte ich hierdurch erst einmal nicht. Dem Anwender bringt es durchaus Vorteile. Die Karten werden schneller verfügbar sein, günstiger und vermutlich nicht so stromhungrig. Das gleiche gilt natürlich auch für die 3870.
 
@ über mir:

Exaktement! Ich könnt' echt heulen vor Freude...
Es gibt tatsächlich auch ein paar Leute auf CB die's blicken.

Ich danke dir!
 
fRe@KAdellE schrieb:
Ob der erste GDDR5 den 0,83 ns GDDR3 von Samsung schlagen wird,
wird sich auch erst noch zeigen und ist eher unwarscheinlich.
Da der erste GDDR5 bei 1,8Ghz starten wird, spielen etwas schlechtere Timings keine Rolle mehr.

Zum Teil hast du recht, ein 512bit SI ist heute nicht nötig, so lange es nicht so an der Bandbreite mangelt. Jetzt kommen wir damit zu den Timings: RV670 braucht nicht so viel mehr Bandbreite, also ist es jetzt auch fast egal ob GDDR oder 4, bis auf das 4 wohl billiger für AMD ist und besser zu verkaufen ist.
Ein 512bit SI wird jetzt nur bei GT200 nötig sein, weil GDDR5 es nicht so schnell zur Massenverfügbarkeit schafft.
Die meisten vergessen auch gerne wie teuer ein 512bit SI ist, aber moment du bist der erste hier im Fred, der überhaupt etwas vom SI schreibt ...

Die Speichermenge hat nichts mit der Bandbreite zu tun, richtig.
 
@ Unyu

Bei 1,8 GHz "starten"? Wo hast du das denn bitte her. Ich glaub' dir zwar, doch jetzt machst du mich neugierig. In dem Fall dürften die Timings dann aber tatsächlich
vernachlässigbar sein und der GDDR3 hat von Anfang an seinen Meister gefunden. ;-)

Im übrigen bin ich nicht der Erste, der hier was von "SI" schreibt sondern
der Zweite. ;-)

Edit:
OK, ich habe soeben hier etwas aktuelles und passendes zum Thema gefunden.
Die 3000 MHz (effektiv) nehme ich Ihnen ja noch ab, aber 6 GHz stelle ich doch sehr
in Frage... :lol:
 
Zuletzt bearbeitet:
Fakt ist, bei GDDR5 wurde der interne Prefetch verdoppelt, also bei doppelten Takt im Vergleich zu GDDR3 takten die Chips intern genauso schnell.
Also statt 1,2Ghz GDDR3 sind 2,4Ghz GDDR5 gut möglich und noch nicht das Ende der Möglichkeiten.

Die 3Ghz aus dem Link glaubst du? Schön, denn die 6Ghz sind davon die beliebte Marketingverdoppelung. ;)
 
quimonda selbst spricht von bis zu 2,5ghz und mehr
aber die massenproduktion soll erste mitte 08 starten, da macht das gerücht das nen rv770 erst mit gddr3 kommt durchaus sinn
 
Hab beim durchlesen hier auf cb Base 3D Mark06Screenshot einer 3870/512 gefunden und mal. Um mal mit meiner zu vergleichen hab ich GPU Takt gleich eingesellt. CPU Punkte sind auch ziemlich gleich.Ganz genau die selben einstellungen sind hier natürlich nicht vorhanden.Aber man sieht doch dass der GDDR4 doch noch höher getaktet werden muss um einen deutlichen Unterschied zu sehen.
MFG
 

Anhänge

  • 3dMarko6 8231053.gif
    3dMarko6 8231053.gif
    136,3 KB · Aufrufe: 594
  • 3DMark06 von cb user.jpg
    3DMark06 von cb user.jpg
    193,4 KB · Aufrufe: 619
Unyu schrieb:
Eine 0,83ns GDDR3 Karte wäre tatsächlich schneller als eine 0,83ns GDDR4 Karte, bessere Timings sei dank. Für 1200Mhz sind beide spezifiziert.

Wie meinen? Die Timings werden nach den Reaktionszeiten der Chips festgelegt. Folglich ist GDDR4 bei 0,83ns exkat genauso schnell wie GDDR3 mit 0,83ns.

Der Haken ist: Es gibt keine 3870 mit GDDR3, das ist ein Geizhals/Shop-Fehler.
Siehe Herstellerseite. http://www.sapphiretech.com/ge/products/browseproducts.php?pcat=3

Ihr solltet alle mal die Finger vom Cannabis lassen. Das Zeug macht vergesslich. Die HD3870 gibt es seit jeher mit GDDR3. Abgesehen davon ist die HD3850 eine HD3870 mit GDDR3, und die gibt es ebenfalls mit 512MB.

Es gibt also genügend Material für einen Vergleich, und der fällt ziemlich eindeutig aus. Für die wirre These, daß GDDR4 langsamer sei oder sein könne, ist da kein Platz.

Auch wenn Wolfgang das nicht wahrhaben möchte, werden HD3870 eben nicht nur mit 1125 MHz ausgeliefert, sondern eben auch mit 1200 MHz. Abgesehen davon kann man sowohl mit übertakteten 3850 als auch mit untertakteten 3870 experimentieren.

Das Ergebnis ist dabei immer ein uneingeschränktes Spiegelbild des Speichertakts, was niemanden verwundern kann, kommt doch bei allen Karten die geiche GPU und das gleiche* PCB zum Einsatz.

Dass AMD im Poker um Speicherchips derzeit schlechte Karten hat, dürfte die CB-Redakteure kaum wundern, haben sie doch selbst von den abwegigen Versuchen AMDs berichtet, Samsung wegen angeblicher Patentverletzungen gerichtlich anzugehen.

Wenn nun AMD ein Interesse hat, den langsameren Speicher durch haltlose Spins aufzusexen, ist das eine Sache, aber für die CB-Redakteure gelten solche Motive doch wohl hoffentlich nicht.

Kein Wunderspeicher also, reale Usererfahrungen mit der GTX oder Ultra zeigen deutlich genug, wo der Hammer hängt, und auch wenn GDDR3 mit bis zu 1200 MHz taktbar gebaut werden kann, kann ich mit meiner GDDR4-Karte darüber müde lächeln, geht sie doch ohne zu murren (mit Serienkühler on Air) auf 1400 MHz (höher hab ich sie nur noch nicht getestet, geht aber sicher auch) und skaliert dabei absolut linear. Daneben sieht selbst eine Ultra etwas bläßlich aus, eine GTX sieht neben meiner 3870 absolut kein Land.

Wer keine HD3850 und HD3870 zum Testen zur Verfügung hatte, und/oder nicht getestet hat, sollte jetzt so langsam mal daran denken, die gefakten Testergebnisse zu widerrufen, oder?

PS Samsung hat übrigens eine Website, auf der man alle Pressemeldungen nachlesen kann. GDDR5 wird mit 1600 MHz an den Start gehen, nicht mehr, und nicht weniger.
 
Zuletzt bearbeitet:
Jo, natürlich. Darum sag ich ja: bei gleicher Latenz gleiche Timings. Sofern der Hersteller für die Serie mit einer Vorgabe von 0,83ns arbeitet, und nicht etwa nur zufällig ein paar schnellere Bausteine in der Lieferung hatte, wird er die Vorgabewerte berücksichtigen, und dann gibt es bei gleicher Latenz keine Geschwindigkeitsunterschiede.

Indirekt hängen Taktfrequenz und Latenz voneinander ab, weil beide vom Ladungsträgeranstieg bis zur Sättigung bestimmt werden. GDDR4 hat insoweit nur andere Grenzen in der Spezifikation, mit der die Ansteuerung des Typs festgelegt werden, damit sich die Controller-Hersteller auf die unterschiedlichen Speicherchips einer Kategorie einstellen können.

Man sieht ja auch bildschön, wie mit der Verkleinerung der Strukturen eine Entwicklung einhergeht, die stufenweise neue Spezifikationen hervorbringt, sobald die theoretisch möglichen Latenzen aus der älteren Norm herauswandern.

Die Samsung-Seiten sind da ganz informativ, geben auch Auskunft darüber, was zum einen praktisch erreicht wird, zum anderen durch die Spezifiaktion als maximal mögloch angesehen wird. Rekord ist wohl derzeit 6 Gb/s auf einer Leitung. Das dürfte dann aber recht teuer sein, sodaß wir das in GraKas der nächsten paar Jahre kaum sehen werden.

Am Ende wird wohl in ca. einem Jahrzehnt SRAM stehen, Serial RAM, das mit fünf oder sechs Pins auskommt, und alles über einen einzigen Draht morst. Schöne, aufgeräumte PCBs werden das.
 
Zuletzt bearbeitet: (Typos)
hab ne HD 3870 (GDDR3) von GeCube mit Standard takten GPU = 850MHz und 960MHz Speicher, kann den Speicher Maximal bis 1116Mhz hochdrehen ohne Pixelfehler alles darüber endet mit Pixelfehlern und abstürzen, bei den GDDR4 Karten kann man ( mit dem richtigen Bios) auf alle Fälle einiges mehr erreichen!
 
Zurück
Oben