Suche Rat wegen Speicherinterface

rofl60

Cadet 4th Year
Registriert
Okt. 2013
Beiträge
97
Hallo,
Neulich habe ich mir mal einige Modelle der GTX980 angeschaut und festgestellt, dass die Karte von Haus aus nur über ein 256bit Interface verfügt. Meine alte 580 hingegen verfügt über 384bit.

Gibt es wen, der selber eine GTX980 (egal welcher Hersteller) nutzt und berichten kann, inwieweit sich die geringere Bitzahl auf die Performance auswirkt?
 
Schau dir Benchmarks an. Das Speicherinterface limitiert in den seltensten Fällen bei dedizierten Grafikkarten. Zudem nutzt NVIDIA wie auch AMD bei modernen Grafikkarten eine Speicherkompressoin :)
 
Wie soll ich das denn testen? Ich kann das nicht eben mal schnell auf 384bit hochstellen und vergleichen.

Das Speicherinterface ist kein limitierender Faktor, weil der RAM an sich schneller ist. Benchmarks gibt es ja zu hauf und man sieht ja das mehr an Performance trotz geringerem Speicherinterface
 
Zuletzt bearbeitet:
Da ein direkter Vergleich von 580 und 980 eh sinnlos ist, von wegen komplett anderer Chiparchitektur, bräuchtest du also jemanden, der mit einer 980 über die Anpassung des Speichertaktes eine niedrigere Speicherbandbreite simuliert.
Wobei die Bandbreite ja aus dem Produkt Speicherinterface x Taktrate resultiert und ein 256bit Interface durchaus besser performen kann, als z.B. ein 320bit (vgl G80 vs G92).
Bis dato habe ich zumindest wenig darüber gelesen, dass die die 980er unter einem RAM Durchsatzproblem leidet....


atari2k
 
Wenn in den Benchmarks meiner Anwendungen eine 980 besser abschneidet, dann kann mir doch die Bandbreite egal sein.
 
Die 980 hat allerdings eine bessere Speicherkomprimierung (spart ungefähr 30% Bandbreite ggü. der 600/700 Serieein), wobei ich glaube dass die Kepler-Karten auch schon eine verbesserte mitbringen. Dazu kommt der deutlich höhere Speichertakt.

Die Bandbreite der 980 liegt jedenfalls oberhalb der der 580 - und das auch auf dem Papier.
580: 192GB/sek
980: 224GB/sek
Dazu kommt dann noch die Komprimierung die einiges an Bandbreite einspart. Limitieren wird da also im Normalfall absolut nichts.
 
pauschal limitiert kein interface bei keiner aktuellen grafikkarte.
also wählt man mit der verwendeten kompression immer das kleinste interface was geht.

kleineres interface = weniger overhead + weniger stromverbrauch + weniger kosten + effizienter.
im grünen lager ist das atm besser gelöst, sprich bessere kompression.

daher hat nvidia bei maxwell auch immer das kleine interface als sein amd gegenstück.
 
Zuletzt bearbeitet:
Die Kompression die beide verwenden ist soweit ich weiß die gleiche. NV hat allerdings tendenziell das schmalere Interface (derzeit) so dass da natürlich Strom gespart wird.
 
nicht ganz aber es gab dich einen test dazu 2-3% soll der unterschied sein.

also würd ich fast behaupten das die in dem punkt als gleich gut beschimpft werden dürfen.

allerdings dürft ihr auch nicht vergessen das die karten teils deutlich älter sind als nvidia ihre somit kann es gut sein das amd aktuell sogar besser damit zurecht kommt.

unterm strich ist es aber schon lange so das wen dann überhaupt laptop versionen probleme haben.

selbst eine 960 kommt mit ihrem doch extreme kleinen interface gut klar.
 
Danke für die zahlreichen Antworten. Und auf Benchmarks vertrau ich nicht immer wegen der Möglichkeit von schlecht komprimierten, ruckeligen Videos wie es bei YouTube z.B. gut und gern mal vorkommt.
 
Schon klar, nur kannst Du die Karte erst nach dem Kauf real testen. Und worauf beruht Deine Auswahl vor der Anschaffung? Genau, auf Berichte, Daten und Benchmarks. Wobei ich bei Benchmarks von den Ergebnissen der Leistungsfähigkeit z.B. bei Spielen rede. :p
 
Stimmt auch wieder. Wie sieht's mit der CPU aus? Würde der FX8150 zum Flaschenhals mit seinen 3.6GHz?
 
Zurück
Oben