News Neue Gerüchte zu nVidias „G92“

Das hört sich doch gut an... und ein richtiger High End Chip kommt dann nächstes Jahr.. wenn die Karte schön stromsparend und günstig wird, kann man sich's ja mal überlegen.
 
Ziemlich verwirrende Meldung. Naja. Hauptsache es gibt bis Sommer 2008 Karten auf dem Markt die DX10.1 unterstützen, unter 200 Euro kosten, und sparsam/kühl/leise sind.
 
STROMSPAREN !
Das wäre was !
Schnell genung ist der G80 doch...jetzt schöne Treiber halb so viel Stromhunger und 10% bei nichtstun !
Das wäre mal eine Leistung !
Und nicht immer noch größere Transistormonster die Energie verschwenden
 
Ich bin erstmal nur begeistert, dass Nvidia die Lücke erkannt hat und sie schließen will. Dank 65nm könnte die Grafikkarte sogar zum Stromsparwunder werden. Zu dumm nur das ATI mal wieder diese Entwicklung verschlafen hat. Ich behaupte mal mit einer HD2700XT die einen 256Bit-Speicherinterface gehabt hätte in 65nm hätte man mehr Umsatz gemacht als mit der HD2900XT.

Viele Gamer sind halt nicht bereit mehr als 200-250€ zu bezahlen deshalb haben ja auch viele die 8800GTS 320MB gekauft und die X1950pro kommt auch nach wie vor gut an.

Grafikkarten über der 250-300€-Marke sind für die meisten eh uninteressant.

gruß
Lumi25
 
mittelklasse mit 256bit speicherinterface,
endlich haben sie daraus gelernt das 128bit nicht mehr wirklich viel reisst, auch kein gddr4 *aufatischau*
 
@darko2: Dieses Beispiel stimmt nicht ganz, nehmen wir die HD 2600XT die ist in manchen Spielen langsamer, als die 1650XT und das ist /war der Vorgänger
 
@ acmilan1899
Langsamer wird der direkte Nachfolger wohl kaum sein ;)

Wenns nach der puren Recheneistung geht soll er ja bis zu 3 mal schneller sein (wenn ich mich nicht täusche).
Bin mal gespannt wann der G90 zu haben sein wird... und ob er dann auch mit so ner Tessellationeinheit kommt die ATI jetzt schon verbaut hat. Glaub damit kann man nette Sachen machen wenn die Programmierer das mal miteinbeziehen.

Würd mich au nich wundern wenn der schon dieses Jahr kommt... 1 Jahr Abstand kam da glaub schon öfters vor. Weiß nich genau wie lang die Geforce 6XXX Reihe High End war - aber nicht viel länger.

Greedz
 
ja aber dafür machen die größere sprünge....
 
Eigentlich wollte ich Ende Juli ja eine 8800GTS oder gar GTX (Zotac) holen, aber wenn dann zu Weihnachten die neue Highend-Karte kommt habe ich ja innerhalb von 5 Monaten ~200EUR Wertverlust...
 
dann werde ich noch warten

aber warum pci-express 2.0 wenn die Karten doch stromsparend werden sollen?

hab ja "nur" "pci-express" - die läuft trotzdem !?


Gruß und guten Morgen


Mortiss :D
 
warum machen sie es nicht so:

der chip besteht aus einer 2D einheit und einer 3D einheit, die 3D einheit besteht aus ca. 100 kleinen berechnungseinheiten.

bei 2d betrieb läuft nur der 2d chip und nur 1/4 der speicherchips.

wird eine 3D anwandung gestartet werden die einzelnen berechnungseinheiten dynamisch ein oder ausgeschalten.
 
@daniel16420

Wahnsinn, da ist ja noch niemand drauf gekommen ;-)

Was glaubst du warum die Grakas im Idle-Modus weniger Strom verbrauchen?
(Idle ist normalerweise 2D)
 
@mortiss
was hindert einen daran ne pcie 2.0 karte stromsparend zu machen?

und ja pcie 2.0 ist abwärtskompatibel
deswegen werden die karten ja auch dafür kommen
macht ja kein sinn dann noch auf pcie 1.1.zu setzen
 
Also ich denke mit dem artikel ist gemeint das der N92 in der palette der 9000 reihe auf dem nivea stehen wird wo heute die 8800gts ist. Obwohl der N92 "nur" den platz von der 8600GTS nehmen soll. denn mit einem teraflop leistung ist das ding 3 mal so stark wie eine 8800GTX/ultra. wäre also komisch wenn es ihr in leistung unterläge. wie immer finde ich es aber zweifelhaft ob auch so schnell games da sein werden die das nutzen.

gruss aus malta
 
@bensen
hat pcie 2.0 mehr bandbreite als 1.1 ? (und wenn nicht macht es doch keinen Sinn, da 2.0 doch nur mehr "watt" liefert).

Egal

@ BrOokLyN R!ot ³

nen schönen Urlaub noch
 
Ja hat es, PCIe 2.0 läuft mit 5,0 GHz statt mit 2,5 GHz wie bei PCIe 1.1, also das doppelte an Bandbreite und ist dazu noch abwärts kompatibel, aber was das wirklich soll weiß ich auch nicht, oder doch, dann würde für billige SLI Lösungen auch 2 mal 8 PCIe Lanes reichen, bei gleicher Bandbreite wie 16 Lanes.
Naja, irgendwann werden auch einzelne Grafikkarten diese Schnittstelle ausnutzen, ich frage mich nur wieso es immer noch AGP 8x Karten gibt (x1950Pro/XT) die die gleiche Leistung bringen wie ihre PCIe 16x Kollegen?! Marketing sage ich da nur, auf das wir uns alle neue Grafikkarten und Mainboards kaufen.
 
Zuletzt bearbeitet:
256bit und 65nm das klingt schon mal gut fürn anfang.
 
Zurück
Oben