Da ich mich mal umgeguckt hab, und mich mal in der Welt der Grafikkarten zurechtgefunden hab irritiert mich noch etwas:
Chiptakt: 625 MHz / Shadertakt: 1500 MHz / Speichertakt: 1800 MHz (http://www.idealo.de/preisvergleich...-pcie-2-0-512mb-gddr3-bfgr88512gtoce-bfg.html)
Chiptakt: 600MHz / Shadertakt: 1500MHz / Speichertakt: 900MHz (http://www.amazon.de/PNY-GeForce-512MB-Grafikkarte-Retail/dp/B000XTA97M)
zwei Grafikkarten Geforce 8800 GT und so ein Unterschied des Speichertakts? hat man da einfach irgentwo mal 2 multipliziert oder ist die so hoch getaktet?
Chiptakt: 625 MHz / Shadertakt: 1500 MHz / Speichertakt: 1800 MHz (http://www.idealo.de/preisvergleich...-pcie-2-0-512mb-gddr3-bfgr88512gtoce-bfg.html)
Chiptakt: 600MHz / Shadertakt: 1500MHz / Speichertakt: 900MHz (http://www.amazon.de/PNY-GeForce-512MB-Grafikkarte-Retail/dp/B000XTA97M)
zwei Grafikkarten Geforce 8800 GT und so ein Unterschied des Speichertakts? hat man da einfach irgentwo mal 2 multipliziert oder ist die so hoch getaktet?