News Vermeintliches Bild einer GT200-Karte im Netz

Ist schon bekannt ob die neune Nvidia Karten runtertakten (VCore senken ect) um weniger zu verbrauchen wenn man nur im Windows ist?

Wann sollen denn die GT200er Karten offiziell vorgestellt werden, gibts da schon nen festes Datum?
 
Öhm, wenn also noch ein paar Speicherbausteine auf der Rückseite der Karte sein sollen, wie soll man so eine heißes Eisen mit nem Wakü Kühlblock kühlen?
 
Anfangs gabs mal Gerüchte der 200er soll noch als 9900er erscheinen, mitlerweile ist dies jedoch unwarscheinlich......
Aber was sagen Gerüchte schon groß aus :)

Takt senken dann werden die Bausteine nicht so heiß, ansonsten braucht man wohl einen guten Luftstrom im Gehäuse!
 
Warum entwickelt Nvidia eigendlich bei den neuen Grafikkarten kein größeres Speicherinterface, 512Mbit reichen doch nicht mehr aus !?
 
ja aber nur weil auf der Karte ein eigener soundchip verbaut ist.
 
256bit mit GDDR3 reichen nicht mehr! 256bit und GDDR5 oder 512bit und GDDR3 reichen dagegen schon!
 
vielleicht sollten sich manche mal durchlesen, was ein Speicherinterface überhaupt ist, wie das mit den Bits und Bytes ist und sich einfach mal in die Materie reindenken, bevor hier andauernd diesbezüglich sinnlose Kommentare auftauchen.
@topic: Wirklich aussagekräftig ist das alles wieder nicht, wie ich finde. Wie schon gesagt wurde.. sowas kann jeder einigermaßen begabte Mensch mit diversen Programmen selbst erstellen, ob es sich tatsächlich um ECHTE Unterlagen handelt, kann doch wieder nur spekuliert werden..
 
Hab ich auch erst gedacht, aber irgendwie unlogisch, nachdem man ihn erst beim G92 in die GPU eingefügt hat.
 
und genau so irrsinnig wird es wahrscheinlich sein ;)
klick1
klick2
 
Ob die im IDLE runtertakten, weiß ich nicht genau.
Ein Festes Datum ist glaube ich noch nicht bekannt, aber sie wird wohl im Q3 erscheinen (also Anfang Juli..) klick
 
Es ist sehr schade das die Karte zuerst in 65nm hergestellt wird und anschliessend 55nm. Denn die Leute die die 65nm-Karte kaufen, werden nicht so hoch übertakten können wie die mit 55nm. Dadurch werden viele Leute auf die 55nm-Variante warten, was natürlich den Umsatz senken dürfte.

nVidia soll einfach mal ne Karte bringen wie dazumals die G80.
 
Schon lustig, wie sich viele Leute von den 512 Bit beeindrucken lassen. Die Speicherbandbreite errechnet sich nun mal aus Busbreite und Taktrate. Z.B. hatte der VRAM der PS2 ganze 2048 Bit, war aber nur mit 150 MHz angebunden, macht also ganze 48GB/s.
Was die Bilder betrifft, ich denke dass das fakes sind.
 
Die Bilder habe ich glaube ich schon gestern gesehen !
Naja abwarten und Tee trinken , bis Nvidia einzelheiten veröffentlicht
 
Gerüchte verkürzen und versüßen die Zeit bis zum Release ;)


Also bisschen Gerüchte schaden nicht...
 
Bei G92 wars auch möglich weil G92 erheblich kleiner als G80 ist.

Wenn GT200 tatsächlich ein 575mm² Hammer wird, ist man froh über jeden Transistor, den man so auslagern kann.
 
Da binn ich mal gespannt, 1GB Speicher währen super, das die auch teilweise auf der rückseite verbaut sind ist nicht ganz so toll, wegen Wakü aber ich binn gespannt wie der Referenzkühler aussehen wird vielleicht wie bei der 7800GTX(Rückseite).
Naja das ein 8xund ein 6xPeg PEG Stromstecker darann sind heisst verbrauchsmäßig nicht allzuviel gutes aber das wird mann dann sehen.

65Nm naja wenns recht flott geht könnte mann auf die 55Nm warten, rentiert sich bestimmt.

Schön ist auch das die Karte noch so lange ist da hatt mann wenigstens was im Rechner "1500Gramm Graka"^^
 
Da verstehe noch einer Nvidia.

Da wo sich ein neuer Generationsname lohnen würde, machen sie nichts (siehe 8800er G92 und vllt die 9900er) und da wo es sich nicht lohnt, vergeben sie frech neue Generationsnamen (Geforce9).

Aber langsam wundere ich mich bei dennen über nichts mehr.
 
Zuletzt bearbeitet:
Schade, hätte mir ein kompakteres Design gewünscht. Wenn dieser pseudo G80 Designaufguss da oben alles gewesen sein soll, was man innerhalb von zwei Jahren (oder mehr) Entwicklung zu Stande gebracht hat, bin ich schon ziemlich enttäuscht! 27cm für ein Singlechip Board find ich nach der langen Entwicklungszeit einfach zu viel. Was man mit effizienter Architektur erreichen kann zeigt im Moment Gigabyte mit ihrer 9600GT! Sehr beeindruckend und meiner Meinung nach der bessere Weg!

http://www.silenthardware.de/review...fikkarte_im_detail_gigabyte_9600gt/index.html
 

Ähnliche Themen

Zurück
Oben