News Diamond HD 3870 mit 512-Bit-Speicherinterface?

Volker

Ost 1
Teammitglied
Registriert
Juni 2001
Beiträge
18.348
Einer der Punkte, die immer wieder in Kommentaren und Fragen angesprochen werden, ist jener, warum alle neuen Grafikkarten sowohl von Nvidia als auch von AMD nur noch ein 256-Bit-Speicherinterface besitzen. Diamond will dem anscheinend nun entgegensteuern, wie die Kollegen von NordicHardware in einem Test zeigen.

Zur News: Diamond HD 3870 mit 512-Bit-Speicherinterface?
 
Kann die geringe Mehrleistung vielleicht daran liegen das der GPU nicht genügend Rohleistung hat und erst bei Übertaktung des GPUs die Karte sein wares ich zeigen kann?

MfG Pantherfibel
 
1024 MiB und 512 Bit bringen beim RV670 doch fast nichts - nV sollte das lieber seinen G92-Krüppeln verpassen.

cYa
 
Genau das Richtige für die Speicherinterface Fans.

Mit Blick auf R600 wissen wir ja wie dringend die R6XX Architektur mehr Bandbreite braucht oder eben eher nicht.
 
Die hat doch nie im Leben 512 bit, bei max. AA/AF wäre der Unterschied sicherlich nicht so verschwindend gering.
 
@ Pantherfibel

Natürlich hängt die Leistung sowohl an GPU-Rechenleistung und Speicherbandbreite.
Und für die aktuellen GPUs reichen halt schnell getakteter Speicher und ein 256bit Interface aus.
Sehr gut sieht man das ja daran, dass beim Zuschalten von AA und AF sich die Karte mit 512bit Interface nicht deutlich absetzen kann. Aber das hatten wir ja schon auch fast immer bei den alten Generationen, als die mit einem 128bit ausgestattet wurden. Eine hohe Bandbreite bringt nichts, wenn die GPU verhältnismäßig langsam ist.
Hoffentlich schalten jetzt mal diejenigen ihr Hirn ein und beachten die GPU-Leistung und auch den Speichertakt, bevor sie wieder über ein kleines Interface herziehen...
Denn ein großes Interface muss noch lange nicht mit einem Performance-Sprung einhergehen!


@ y33H@

Nvidia sollte eher nach bald 2 Jahren einen Treiber herausbringen, der den vorhandenen Speicher sinnvoll nutzt...
 
Zuletzt bearbeitet:
Warum sollte man einer 3870 ein 512bit-Speicherinterface verpassen?
Wuerde es einer 3870 X2 nicht viel besser stehen, da sie ja 2 GPUs hat.

Ich verstehe die ganzen Hersteller nicht mehr. Die sollten langsam mal alle auf einen Nenner kommen. Warum auch immer 2 GPUs und nicht eine GPU mit 2 Kernen. Kann ja sein, dass das ein wenig schwieriger ist zu entwickeln, aber es kann doch nicht unmoeglich sein, oder?

Ne Ne Ne.
 
hm? man kann das interface bei dem chip einfach mal so aufs doppelte verbreitern?
 
Naja... ich versteh nicht wie Diamond plötzlich das SI ändern kann, das liegt doch in der GPU! ;)
Desweitere bringen selbst 200GB/s der ATI HD3x Generation etwas, da die Texelfüllrate viel zu niedrig ist. ^^
 
sinnvoll wäre ein solcher vergleich nur dann wenn alle karten einen gleich großen speicher haben und dann sollte man optimaler weise 3 karten haben: 1. GDDR3 512bit 2. GDDR4 256bit, 3. GDDR4 512bit
 
das sollte NVidia mal bei den aktuellen Karten und zukünftigen übernehmen, nicht immer die abgespeckte sch***e anbieten. 512bit machen selbst bei 512MB schon etwas aus.
 
Zuletzt bearbeitet:
@Seppuku
Deshalb meinte ich ja bei Übertaktung des GPUs könnte das 512Bit SI etwas bringen, so ist es eher ein schlechter Versuch noch etwas mehr Leistung aus einer HD 3870 herauszuholen.

MfG Pantherfibel
 
@ Pantherfibel

Aber auch eine 256bit Version wird beim Übertakten schneller...
Und soweit, dass sich das Interface wirklich lohnt, kann man die 3870 nicht wirklich übertakten ;).


@ NoD.sunrise und kenny12

Wozu bitte DDR4 und 512bit?
Wenn ich ein breites Interface habe und somit schon genug Bandbreite (die laut dem Test nicht wirklich etwas bei der Karte bringt) habe, was bringt dann noch mehr Bandbreite durch schnelleren Speicher?
 
@ Seppuku

Joa, die sollen ihren Chips mal beibringen, den Speicher effizienter zu nutzen ... traurig ist das.

@ AEROON

Ich will nicht wissen, was für GDDR5 es braucht um bei 256 Bit ne gescheite Bandbreite zu erreichen ...

cYa
 
@ y33H@

Komisch, dass aber noch immer den "Speichbug" gibt...
Und dass da immer noch etwas nicht stimmt, sieht man ja in jedem 8auch aktuellen) Test, wenn eine eigentlich schnellere Grafikkarte bei sehr hohen Einstellungen sich plötzlich hinter einer langsameren positioniert...
 
Aber auch eine 256bit Version wird beim Übertakten schneller...

Schon klar.

Und soweit, dass sich das Interface wirklich lohnt, kann man die 3870 nicht wirklich übertakten .

Woher weißt du das so genau? Gerade Deshalb wäre ja ein solcher Test interessant:
OC 256Bit vs. OC 512Bit (beides mit 1GB Ram und OC bis zur Schmerzgrenze) Über den Sinn und Stromverbrauch einer solchen Karte könnte man dann ja immer noch diskutieren.

MfG Pantherfibel
 
Ich verstehe die Hersteller auch nicht. Weder hat AMD für ihre 38xx Reihe einen internem Displayporttransmitter verbaut und diese Reihe benötigt somit einen externen (nicht käuflichen Transmitter) um den Displayport wirklich anzusteuern. Die Produktbezeichnungen der Sapphire 3870 Karten ärgern mich immer wieder, da diese mit Displayport bei den Spezifikationen werben. Da hat sich ein halbes Jahr nichts getan. Nun soll das Speicherinterface bei den Singlekarten erweitert werden, anstatt den X2 Karten von vornherein etwas mehr Performance zu geben. Die Singlechipversionen profitieren bei der aktuellen Architektur der Radeon aber kaum von der Bandbreitenerhöhung. Eine bessere Antialiasingleistung ist dadurch nicht zu erwarten.
Man wird sehen, was andere Seiten an FPS benchen, wenn die Karte tatsächlich so in den Handel gelangt. Da AMD aber kurz vor der Markteinführung der R700er steht, würde ich zum jetzigen Zeitpunkt als Hersteller an 3870 Singlechipkarten gar nicht mehr herumexperimentieren. Ein interner Displayporttransmitter hätte vielleicht noch ein paar Käufer gefunden. Warum gerade jetzt dieses Experiment mit 512er Anbindung?
Unverständlich.
 
512Bit sind ja schon fast zu viel. Es ist doch nichtmal ne wirkliche High-End karte. Ich meine 320 Bit genügt hatten. Bei den X2 Karten währe 512Mit ganz Cool :cool_alt:


Ich finds trotzem gut!
 
Zurück
Oben