Speichertakt Verwirrungsprinzip?

Flipper44

Lieutenant
Registriert
Mai 2008
Beiträge
771
Da ich mich mal umgeguckt hab, und mich mal in der Welt der Grafikkarten zurechtgefunden hab irritiert mich noch etwas:
Chiptakt: 625 MHz / Shadertakt: 1500 MHz / Speichertakt: 1800 MHz (http://www.idealo.de/preisvergleich...-pcie-2-0-512mb-gddr3-bfgr88512gtoce-bfg.html)
Chiptakt: 600MHz / Shadertakt: 1500MHz / Speichertakt: 900MHz (http://www.amazon.de/PNY-GeForce-512MB-Grafikkarte-Retail/dp/B000XTA97M)

zwei Grafikkarten Geforce 8800 GT und so ein Unterschied des Speichertakts? hat man da einfach irgentwo mal 2 multipliziert oder ist die so hoch getaktet?
 
ne, 900Mhz ist der realtakt. intern sind es dann 1800Mhz, bei beiden karten.
ist also nur eine unterschiedliche angabevatiante der hersteller.
 
wie intern? was hat das zu bedeuten, meine zeigt auch 900 an...
 
Ist DDR Speicher -> Double Data Rate also 900MHz real *2 = 1800MHz
 
900MHZ ist der reale Takt, aber durch DDR wird es halt 1800, das Prinzip bei DDR-Ram ob auf Grafikkarten oder als Arbeitspeicher ist das selbe!
 
das ist gddr3 ram das ddr steht für "double data rate" ,d.h. pro takt kann ddr ram zwei datenpakete verschicken also effektive das doppelte vom reelen takt.


edit: da waren wohl einige schneller :)
 
900MHz, der der real anliegt 1800MHz ist der effektive Takt, da ja pro Takt 2 Pakete übertragen werden...
 
ganz genau natürlich hören sich die effektiven taktraten viel besser an sind aber im grunde nur ugen wischerrei

in wirklichkeit laufen all sagen die DDR heien ob RAM oder VRAM mit der hälfe

oft kommt es so zur verwirrungen vorallem beim OC von ram xD
 
Effektiver Takt ist der größte Unsinn, den es gibt!

Es werden eben pro Taktflanke Daten übertragen, aber dann ist immer noch der gröbste Müll von doppelten "effektiven" Takt zu flunkern.

Die 900Mhz liegen außen an, innen liegen bei GDDR3 eben 225Mhz.
Alles andere ist pure Verarsche.
 
scheint für viele immernoch ein sehr verwirrendes thema zu sein? was ist jetzt die richtige antwort...
 
Naja entscheidend für die Leistung ist ja die Speicherbandbreite der Grafikkarte. Und die berechnet sich folgendermaßen:

Effektiver Speichertakt*(Speicherinterface/8)

z.B. bei der 8800 GTX: 1,8GHZ*(384bit/8)=86,4GB/s
8800 GTS G92: 1,94GHZ*(256bit/8)=62,08GB/s
 
Zuletzt bearbeitet:
oh, dann hab ich aber ne niedrige geschwindigkeit :(
nur 58,88GB/s

nagut meine graka davor hatte 12,8GB/s^^
 
Zuletzt bearbeitet:
Naja was heißt niedrig, bei einem 19Zöller und moderaten AA und AF Einstellungen reichen 60GB/s völlig aus. Erst bei höheren Auflösungen als 1280x1024 und viel AA und AF wirkt die Speicherbandbreite der Grafikkarte wirklich limitierend und eine 8800 GTX/Ultra lohnt sich.
 
Nö, für AF braucht es vor allem erst mal Texelfüllrate, da hat die GTX nicht viel mehr.
Für AA brauchst du vor allem auch VRAM und Pixel/z-Füllrate und ja auch etwas Bandbreite, da siehst schon trauriger aus.

Selbst die 9800GTX mit ihren 70GB/s ist nicht so schlimm Bandbreitenlimitiert. :)

So gefällt mir die Rechnung besser (bei einer 8800GT):

Externer Speichertakt (900Mhz) x Taktflanken an denen übertragen wird (2) x Interface Breite (256bit) = Bandbreite (460800 MBit/s) -> /8 = Bandbreite (57600 MB/s)
 
Also man kann schon von effektivem Takt bei DDR reden, weil der Takt als Frequenz nichts anderes als der Kehrwert des Zeitintervalls ist. Und bei 2000MHz effektiv (1000MHz extern) beträgt der zeitliche Abstand der Datenpakete 0,5ns. Man könnte es auch Datentakt nennen.
 
@unyu
wie kommst du auf 225mhz?
sind doch eigentlich 450mhz

nicht mit ddr3 verwechseln
 
Richtig, da hat dieser effektive Takt zugeschlagen und mich verwirrt. :(
 
Zurück
Oben