Erste Bilder der 8800GTX und GT?

Fischeropoulos

Lieutenant
Registriert
Apr. 2004
Beiträge
733
Als wenn das stimmen sollte wäre es eine Sensation. Angeblich will so eine Japanische Seite ein paar Bilder der kommenden G80 Karten gemacht haben, mich wundert nur das es von nVidia noch keine Meldungen gab. Schaut Euch die Bilder mal selbst an.

Grüße
 
wo ist das externe netzteil? :D

baFh
 
Das externe Nt haben die vergessen Beizulegen. Oder es ist nicht im Lieferumpfang inklusive. :D


Aber echt lang das Teil. Da ist nix mit Barebone und Silent, obwohl der lüfter leise aussieht aber nicht schön :D
 
was mich interessiert ist der neue AA mode : VCAA , klingt mal gut :D

ansonsten viel zu lang, da wird sicherlich auch noch nachgebessert werden

naja das zweite netzteil kommt sicherlich an den zweiten 6 poligen Anschluß dran :D sind ja zwei nebeneinander
 
Sind das Monster da bekommt man ja in nem großen Midi Probs!
 
Schon geil: jetzt tauchen diese "ich-bin-eine-8800GT(X)"-Bilder wirklich überall auf. :lol:

Wenn es sie sein sollte, ists sicher noch ein Prototyp. Oder denkt einer allen Ernstes, dass die Karte in einem solchen design kommt?

Gruß
 
meinste die entwickeln ein design nur für den prototypen?
papp nen bunten aufkleber auf die abdeckung und die karte sind aus wie jede andere auf dem markt ;)
aber weiss pb an den pics überhaupt was wares dran ist

@pc-andi
in einen großen midi passt die karte locker rein
die ist kleiner als ne 7900gx2
 
Ich glaube eher, dass diese Bilder noch nicht das Referenzdesign sind, sondern von irgendeinem spezialen Grafikkartenhersteller sind.
Denn Welcher GPU-Hersteller verlangt von seinen Kunden ,dass sie eine Wasserkühlung für ihre neue Grafikkarte brauchen,da dei 8800gtx nur mit wasser ausreichend gekühlt werden kann.
Dabei soll doch die Verlustleistung siken durch GDDDR4 und ko.
Aber trotzdem rießen Teile. Ich frag mich was wenn demnächst drei Grafikkarten möglich sind, dann werden doch die anderen Steckkartenplätze(wie PCI oder Pci-express+1) komplett verdeckt.
Wo bleibt dabei die Aufrüstmöglichkeit für zusätzlichle Komponenten, schließlich will man ja nicht den ganzen Tag nur Benchmarks durchs System hauen, sondern vielleicht auch mal Fernseh schauen mit einer interne Lösung ?
;)
 
Das will ich hoffen, denn die ist ja fast so lang wie die 7900GT2!? Sowa möchte doch keiner im PC haben oder täscuhe ich mich da? Mit ner Wakü.....nur für GPU na denn. Für den Preis kann ich CPU mitkühlen :D
 
Im Hinblick auf die technischen Angaben, die auf der verlinkten Seite gemacht werden, muss die Kühlung wohl Unmengen an Abwärme wegtransportieren... ;)

Der Speicherbus soll mit 256 + 128 Bit arbeiten? Und dazu noch mit 512 + 256 MByte RAM... ? Soll damit eine Art Coprozessor (Stream Prozessoren... ?) bedient werden?

Anhand der Bilder kann man kaum etwas aussagen. Die technischen Details klingen zudem etwas merkwürdig. Licht wird wohl erst der Launch von Seiten nVidias in diese Sache bringen ;)

Liebe Grüsse,
Winterday

ps: Im Zusammenhang mit den Spekulationen um Physikbeschleunigung im G80 könnte es sich bei diesen zusätzlich 256 RAM und dem Mehr an Speicherbus eventuell um jene Teile handeln, die genau für derlei Berechnungen angedacht sind...
 
Zuletzt bearbeitet: (Anmerkung)
Ich finde 768mb RAM komisch, vorallem bei 2 GPUs, hätte bei 2 GPUs eher auf 2x512mb getippt wie bei der 7900GX2/7950GX2...
 
Angeblich sollen die Bilder von ner alten 6800 sein, wurde zumindest hier gepostet.

Wobei jenes Zitat auch als Fake den Weg ins WWW gefunden haben kann, vor allem aufgrund des schlechten Ausdrucks und Satzbaus. ;)
 
Wie gesagt, ich würde erst einmal vorsichtig sein. Ich glaube das ganze erst, wenn die ersten Vorabtests auf Xtremesystems auftauchen. ;)

mFg tAk
 
Vorallem sind Bilder von Kühlern ohne Karten zu sehen , aber nicht anders rum ,dann könnte man sich durch den Chip ja Gewissheit schaffen :)
 
byte_head schrieb:
Ich finde 768mb RAM komisch, vorallem bei 2 GPUs, hätte bei 2 GPUs eher auf 2x512mb getippt wie bei der 7900GX2/7950GX2...

Ich vermute mal, falls die Specs stimmen, daß die zweite GPU für die Physik genutzt wird.
 
Mist, da gibts schon einen Fred!!!
 
Zuletzt bearbeitet:
Zurück
Oben