News Diamond HD 3870 mit 512-Bit-Speicherinterface?

Was soll denn das für eine GPU sein, wenn die Karte ein 512-Bit-Speicherinterface hat? Der RV670 kann es unmöglich sein, der hat ja nur ein 256-Bit-SI. Und der R600 kommt mit Blick auf die Stromverbrauchsmessungen unmöglich in Frage.
Die Benchmarks deuten auch nicht auf ein 512-Bit-SI hin, die geringen Vorteile kommen vom größeren VRAM.
 
in crossfire und übertaktet würde man ab 1680er auflösungen AUF JEDEN FALL NEN UNTERSCHIED MERKEN!!!! hat doch der test von pcgh gezeigt, als se die 8800gtx und 9800gtx verglichejn haben ;-)
 
Eine HD3870 und eine HD2900XT sind aber keine 8800GTX und eine 9800GTX :freak:

cYa
 
@ Pantherfibel
OK, deine Meinung.

Ein teures 512-Bit SI macht allerdings derzeit noch überhaupt keinen Sinn.
Weder bei NV noch bei ATI.
Bis 1 GB V-RAM sind die 256-Bit absolut ausreichend.
Insbesondere bei ATI, da sie ja im High-End bereits den GDDR4 verwenden.
Ein guter, schneller GDDR4 ist in jeder Hinsicht sinnvoller als solch ein großes SI.
Die GTX und Ultra der 8800er-Serie darf man getrost als Ausreißer bezeichnen.
Wir sehen es gerade an der 8900 GTX...
Und da Nvidia noch überhaupt keinen GDDR4 einsetzt, besteht auch hier noch
genügend Spielraum nach oben (ohne breiteres SI) bis zur
Größe von 1024 MB zu gelangen.

Schau 'mer mal was kommt. ;-)
 
Dann sollte man als SI Fan noch beachten, das ein größerer VRAM keine doppelte Bandbreite benötigt.
Es werden doch nicht plötzlich doppelt so viel Daten ausgetauscht, nur weil der VRAM größer ist.

Bei DDR2 mit 333Mhz mit einem 128bit SI kommen auch keine SI Fans her und hacken auf dem SI rum und meinen, das nur 1GiB Sinn macht und das 4GiB keinen Sinn macht.
Verdrehte Welt, aber bei Grafikkarten scheint das SI zum Wichtigsten Verkaufsargument zu werden, langsam versteh ich das AMD überhaupt HD2900XT losgeworden ist. :freak:

@Berber
Nvidia wird nicht auf GDDR4 setzen, das war leider eine AMD only Geschichte. Mit GDDR3 hat Nvidia also noch 100Mhz Spielraum mit 0,83ns Ram auf der 9800GTX.
Aber bald ist GDDR5 Marktreif und ein 256bit SI reicht locker.
Bzw dank GDDR5 brauchen wir in der Mittelklasse kein 256bit SI mehr, 192bit reichen wohl locker aus. :)
 
Ein teures 512-Bit SI macht allerdings derzeit noch überhaupt keinen Sinn.
Weder bei NV noch bei ATI.

Vor kurzem warst du da noch gegenteiliger Meinung. :rolleyes:

MfG Pantherfibel
 
absolut überflüssig nen 512bit si bei der hd38**..
die hd2900pro gabs auch mit 256 und 512bit,
der unterschied zwischen beiden karten lag bei ~5%..

da die hd38**
quasie nur nen refresh der hd2900 ist,
wird der unterschied in etwa der gleiche sein.
 
merkwürdig warum das nicht verlinkt wurde...hier der Test dazu
>http://www.nordichardware.com/Reviews/?skrivelse=530
und hier die entsprechend modifizierten Karten
>http://www.nordichardware.com/Reviews/?page=10&skrivelse=530

das die Diamond 3870 1GB bei Zuschaltung von AA/AF bei niedrigeren Auflösungen
einbricht ist schon eingenartig obwohl sich dann bei 1920x1200 + 16/8x AA/AF ihre
Power zeigt
und bis auf die 8800Ultra & 9800GTX alle anderen abhängt bestätigt
das 512SI + 1Gb-Vram doch was bringt ! ausser bei Crysis natürlich (pro Nvidia !?)
aber evtl würden die 1Gb auch schon bei 256er SI reichen (bei etwas OC) reichen was
andere Tests ja auch zeigen >http://www.hardware-infos.com/tests.php?test=34&seite=11

erstaunlich wie gut die MSI NX8800GT Zilent teilweise abschneidet !

schade dass wieder keine Spiele mit hohem Vram-Bedarf getestet wurden
ala >CoH >Oblivion mit Hires-Tex-Pack(GTP3) > HL2 mit Hires-Tex-Pack(Cinemamatic4) >Grottik3
und andere

denn erst jene würden wirlkich Aufschluss geben
 
Zuletzt bearbeitet:
@_/"Y&Y"\_
ist doch als quelle in der news angegeben :confused_alt:
 
Da gibts garnichts groß zu überlegen, der RV670 besitzt einen 512bit Ringbuscontroller, welcher intern mit 2x256bit arbeitet, extern aber 8x32bit lanes besitzt und Technisch nicht mehr als 256bit an den Speicher anbinden kann.

darüber hinaus verfügte die HD2900XT (R600) über 16 Speicherchips welche mit ihren je 32bit den Controller auslasten konnten, welcher dort noch mit 8x64bit ausgestattet war, was etwa 100Mio transistoren mehr bedeutete.
Die 1GB erklären auch keine 512bit da nur die interne Speicherdichte höher ist, was sie allerdings erklären ist, dass die Leistung ab und an ein wenig höher liegt als bei der 512MB Version, teilw. auch darunter, also völlig ausgewogen, der GDDR4 Speicher bringt halt nicht so gewaltig viel, dass er die 1GB GDDR3 abhängt.


Daher hat sich wohl einer die 512bit des Ringbus genommen und ist ein wenig durcheinander gekommen :D
 
Zuletzt bearbeitet:
@ Pantherfibel
Nö hab ich eigentlich nicht...
Da ging's um etwas anderes, wenn ich mich recht erinnere.
Nämlich um die künftige Relation im High-End zum Mainstream.

@ Unyu

Ich weiß. Doch warum ist es völlig auzuschließen dass dies evtl. als kurze "Zwischenlösung" nicht doch noch geschieht? Da bin ich nämlich nicht wirklich im Lichte was das anbelangt.
Hat das irgendwas mit dessen Entwicklung zu tun?
Hat AMD irgendwelche Exklusivverträge?

Beim GDDR5 ist doch das Problem derzeit noch der Preis u. die Verfügbarkeit.
Da die Massenfertigung meines wissens nach erst jetzt (Anfang 2008) -
begonnen hat, wird's damit sicherlich noch etwas länger dauern...
Oder doch nicht?
 
AMD hat afaik Verträge/Abkommen mit Samsung in Bezug auf GDDR4....

Samsung ist zwar nicht der einzige GDDR4 Produzent, aber so richtig ein Massenprodukt ist es nie geworden, die paar AMD Karten mit GDDR4 kann man an einem Daumen zählen.
Das Nvidia jetzt noch kurz, so lange nach GDDR4 Start auf GDDR4 setzt halte ich für ausgeschlossen.

Angeblich setzten diesmal alle wichtigen Speicherproduzenten auf GDDR5, dann ist es wie auch angekündigt Mitte 2008 soweit mit der Verfügbarkeit. :)
Es werden zwar nicht gleich die absoluten Topchips mit 2,5Ghz billig zu haben sein, aber genug Bandbreite gibts trotzdem.

Ich bin gespannt, ob die SI Fans einen Bogen um die Karten machen, denn mehr als 256bit ist vor G100/R800 gar nicht nötig. :)
 
@ Unyu

Ah, danke für die Aufklärung!
Gerade von den Verträgen mit Samsung hab ich irgendwann
mal am Rande etwas diffuses mitbekommen.

Na gut wir werden ja sehen. Könnte schließlich auch sein,
dass mit dem baldigen Markteintritt des GDDR5, der GDDR4 preislich
so attraktiv wird, dass er so lange in einigen Karten verbaut
wird, bis er komplett vom Markt verschwunden ist und erst
dann im gehobenen Feld der GDDR5 verwendet wird...

Aber egal ob so oder so - es kann nur besser werden. ;)

Ich bin gespannt, ob die SI Fans einen Bogen um die Karten machen, denn mehr als 256bit ist vor G100/R800 gar nicht nötig. :)
Ich auch. Also zu hoffen wäre es ja... dann wird's für die "SI ist nicht alles im Leben"-Fraktion nämlich richtig schön billig! :daumen:

@ kisser
Ja, das ist doch bekannt. Nur hat das letzen Endes nichts mit
der allgemeinen Verfügbarkeit bzw. dem Verwertungswillen der Hersteller zu tun.
Hynx stellt beispielswiese auch GDDR4 her, den Nvidia tatsächlich (warscheinlich
ebenso exclusiv wie AMD) kaufen könnte.
 
naja amd nutzt gddr4 grad mal bis 1,1ghz, das kann ich auch mit gddr3
scheint so als ob nur 0,83 ns gddr4 verfügbar ist
 
Ich halte mehr als 256bit im High-end Markt schon für angemessen. Um das zu belegen muss man sich eigentlich nur die Skalierung der 8800 GTX (G80) und 8800 GTS (G92) anschauen, die klar zeigen, dass ein schnellerer Rechenkern mit steigender Auflösung durch einen 256bit Speichercontroller zunehmend eingebremst wird.
 
sie wird nicht durch das zu kleine speicherinterface sondern durch die geringe speicherbandbreite ausgebremst ;)
ist ein unterschied. die speicherbandbreite kann man auch mit nem schnelleren speichertakt erreichen
es muss nicht unbedingt ein breiterer speicherbus sein
 
Zurück
Oben