Daten zur GeForce 8800

Joa im Grunde schon.
Und Merkwürdigerweiße habe ist es in 90% aller Fälle richtig.
Die Transistor zahl kann schonmal hinhauen.
Die Ursprungsseite wurde wohl von NV ermahnt...
Es ist ganz normal, dass solche Information ab und zu mal wieder verschwinden.
 
Klar, aber nur wenn sie erfunden sind.
Wenn man an echte Infos kommt kan nVidia nix machen.
Wenn diese Infos aber falsch sind und etwas falsches darstellen, kann man das berrichtigen (oder eben entfernen = dasselbe).

Ich schätze der Artikel war auch nur ""irgendwo"" aufgeschnappt.
 
nvidia kann auch gerichtlich gegen den autor vorgehen auch wenn die daten stimmen diek önnen dann sagen das sie falsch sind oder sonst was
 
Leute, wartet doch einfach den Launch des G80 ab und fertig! ;)

mFg tAk
 
Genau kloppt euch nicht die Köpfe wegen wilder Spekulationen ein ;)

Das mit der Wakü halte ich für unglaubwürdig, eine solche Verlustleistung wäre ein Schritt zurück, da der G71 besonders wegen seiner Genügsamkeit gelobt wurde. Warum sollte NVidia also eine solche Verlustleistung in Kauf nehmen ?? :freak:
 
ich habe gelesen ds die karte nur 512mb besitzt ..
 
Nachdem was ich bis jetzt weiß, brauchen die Grakas überhaupt gar nicht soviele "übersinnliche" Fähigkeiten um mit DX10 arbeiten zu können. Von daher verstehe ich die ganze Aufregung überhaupt nicht.
 
Egnutz schrieb:
Ich habe schon das Nachfolgemodell, welches in 65nm gebaut ist, und wieder aktiv zu Kühlen ist. ;)

Naja egal.

Denkst du wirklich das wir dir das abnehmen? Vorallem das Sys in deiner Sig?
Wo sollst du das denn mit 17 herbekommen haben, kennst du hoihe Tiere von AMD & Nvidia?
Die auchnoch zulassen das du damit in Boards rumprotzt? :evillol:

Selten so gelacht. :lol:
 
lol ja der Egnutz bringt einen schon zum lachen :D

vor allem Geforce FX soll das schellste aller Zeiten gewesen sein *lach*

dazu noch nen X4 der schon auf Gddr3 läuft :lol:
 
Zuletzt bearbeitet:
Ach das waren noch Zeiten. ;) Das Debakel um NV30/35, davon konnte sich nVidia nicht wieder so schnell erholen.

mFg tAk
 
tAk schrieb:
Ach das waren noch Zeiten. ;) Das Debakel um NV30/35, davon konnte sich nVidia nicht wieder so schnell erholen.

mFg tAk

oh doch, wenn viele so denken wie Egnutz das die FX das beste bis heute ist/war dann sehe ich für nvidia kein imageverlust :D
 
Also ich schätz den jetzt mal spontan auf 21K im 05er:freaky:
Im 06er werdens dann warscheinlich 13K sein!
Bin schon wild:D
Hoffentlich sind´s keine falschen angaben, bis auf den Preiß wobei er in diesem Fall gerechtfertigt wäre!
 
Ich würde mal sagen, der Preis im High-End Segment war immer etwas überrissen kurz nach dem Launch der Karten.

mFg tAk
 
stefan@x700pro schrieb:
Also ich schätz den jetzt mal spontan auf 21K im 05er:freaky:
Im 06er werdens dann warscheinlich 13K sein!
Bin schon wild:D
Hoffentlich sind´s keine falschen angaben, bis auf den Preiß wobei er in diesem Fall gerechtfertigt wäre!

Ne, mehr!:D
Ein CF-System mit Quadcore (Dual Xeon) schafft "schon" 12.000 (im 06er). Da wird noch mehr drin sein.

Freuen tu ich mich auch - nur nicht auf den Preis:evillol:
 
Wobei der Score vom 3DMark auch sehr stark von der/den verwendeten CPU(s) abhängig ist.

Ich bezweifle jetzt mal, das der G80 so schnell ist wie zwei X1900XT im CF. Ich lasse mich aber gerne eines besseren belehren sobald unabhängige Benchmarks vorhanden sind.

mFg tAk
 
Also wenn die neuen ATI Grakas ab 250Watt aufwärts verbrauchen dann wird es mit den Grakas für Zocker nicht mehr so interessant so ist zumindenst meine Meinung. Schließlich hat nicht jeder ne WaKü und um die Vorteile benutzen zu können brächte man Vista und da bin ich immer nur sehr skeptisch.
 
Zurück
Oben