Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Echt? Ein Grund sich die Karte nicht zu kaufen. Für mich jedenfalls. Ne Karte mit nur 128bit Speicheranbindung hat heute im High-End Bereich nichts zu suchen, bzw. bietet nicht die Leistung für den High-End Bereich.
also ich denke, dass die karte - wenn sie denn wirklich diese leistungen erbringen wird - auch über 400 € genug abnehmer finden wird.
sie hat ja angeblich mehr power als einer 6800ultra und die wird auch gekauft (wenn sie denn verfügbar ist).
warum sollte man dann für mehr power nicht genauso viel geld zahlen?
ich könnte mir auch vorstellen, dass einige ihre 6800 gt/ultra + mainboard mit verlust verkaufen und sich das gigabyte kit holen, nur um noch mehr power zu haben - eigentlich sinnlos, aber was solls
Wie gesagt haben die Chips nur 128-bit Speicheranbindung und brechen beim Einsatz von AA/AF + Hohen Auflösungen ziemlich ein. Deshalb wird das ganze auch keine Chance gegen eine GF6800GT/U bzw. X800XL/XT haben, zumindest nicht mit AA/AF (Wer spielt heute noch ohne AA/AF?). In 3DMark kann die Karte natürlich ihre gesammte Stärke zeigen, weshalb 3DMark auch als einziger Benchmark in der Pressemitteilung zu finden ist.
Viel Luft um nichts, sicherlich ganz nett für Leute die nicht in hohen Auflösungen bzw. hohen AA/AF spielen, aber für Highend Freaks natürlich nichts. Den Preis der Karte schätze ich auf so ca. 400EUR im Handel.
Wer behauptet das? In welchem Stein ist diese Wahrheit gemeiselt?
Wenn man via SLI ein Bild halbieren kann, kann man es auch vierteln.
Alles eine Sache der Treibertechnik.
Die Betonung liegt aber auf "noch"!
man arbeitet ja dran.
@TheCounter
Zitat aus dem Artikel:
"Die doppelköpfige Pixelschleuder bietet 256 MByte an GDDR3-Speicher, der über ein 256 bit breites Speicherinterface an die GPUs angebunden ist. Angesichts der Speichertaktfrequenz von 600 MHz resultiert daraus eine Bandbreite von 19,2 GByte pro Sekunde. Die GPUs sind mit 500 MHz spezifiziert"
jede 6600gt gpu hat nen integrierten 128bit speicher-controller und zugriff auf 128mb.
berechnungen werden zwischen den gpus aufgeteilt und somit bricht die leistung NICHT bei hohen auflösungen und AA zusammen. eine 6800ultra ist da nicht besser!
Wer behauptet das? In welchem Stein ist diese Wahrheit gemeiselt?
Wenn man via SLI ein Bild halbieren kann, kann man es auch vierteln.
Alles eine Sache der Treibertechnik.
Mhm, dein Post ist etwas verwirrend.
Es ist richtig, dass die Gigabyte Lösung über SLI angeschlossen ist.
Imo gibt es aber vier SLI Ports und somit könnte man noch ein zusätzliches SLI System aufbauen, allerdings müsste man schon ein paar größere Änderungen vornehmen.
SLI halbiert übrigens nur selten das Bild, meistens wird im AFR Modus gearbeitet, sprich jede Graka berechnet ein Bild.
also ich denke auch das sli mit mehr als 2 gpu`s funzten könnte.
weil selbst nvidia sagt zu sli:
SLI (Scalable Link Interface) ist eine Hochleistungstechnologie, mit der sich die Rechenleistung mehrerer NVIDIA Grafikprozessoren in einem System intelligent bündeln lässt. Konkret wird die Geometrie- und Füllleistung von zwei Grafikprozessoren kombiniert.
Zitat aus dem Artikel:
"Die doppelköpfige Pixelschleuder bietet 256 MByte an GDDR3-Speicher, der über ein 256 bit breites Speicherinterface an die GPUs angebunden ist. Angesichts der Speichertaktfrequenz von 600 MHz resultiert daraus eine Bandbreite von 19,2 GByte pro Sekunde. Die GPUs sind mit 500 MHz spezifiziert"
Die meinen damit beide zusammen, jedoch rendert ja jeder Chip für sich und deshalb auch nur 128-Bit Speicherinterface. Marketingtechnisch kann man das als 256-Bit Speicherinterface verkaufen, was jedoch nicht der Wahrheit entspricht.
Außerdem dürfte es weitaus komplizierter/aufwendiger sein Chips mit einem 256-Bit Speicherinterface (=512-Bit insg.) auf ein PCB zu bringen. So ein neues Layout ist ja wohl auch nicht wirklich so günstig
Guck dir einfachmal die Benchmarks von zwei 6600GT Karten im SLI betrieb mal an, dann siehst du es