News Einige Specs von Nvidias GT216-GPU bekannt?

flappes schrieb:
Gegen welche Karte tritt diese denn an? Man hat ja eigentlich gegen alle Atis einen Gegenspieler...

Naja, wie schon im neuesten GraKa-Test hier erwähnt steht die HD4870 512MB in ihrem Preissegment ziemlich allein da.
 
Wüst3Fuchs schrieb:
Der GT300 kommt im April !

Und ich bin der Weihnachtsmann :rolleyes: Das es solche schräge Vögel noch gibt :p

@News:
Die Karte ist wohl nur für einen Zweck gedacht: Versuchsobjekt.
Genau so wie ATI den RV740 in 40nm im Midrange-Bereich bringen will.

Ich denke, die Karten werden als "Versuchsobjekte" für den neuen Fertigungsprozess auf den Markt geworfen, bevor mitte/ende 2009 dann die richtigen Karten mit GT300 und R(V)870 auf den Markt kommen.

Zu den Karten: eigentlich nicht schlecht. Niedriger Stromverbrauch, hohe Taktraten, wahrscheinlich gute Leistung für Midrange-Segment. Da können wir ja mal die Tests abwarten.
 
Hätten sie auch die 8800 im Geschäft lassen können und fertig. Etwas billiger verkaufen und fertig dann braucht man nicht so ein Ding basteln. Aber nein, dann hätten sie ja die eigene Konkurenz nicht ausgeschaltet und keiner würde so schnell eine 260 GTX kaufen.
 
die neue gtx wird doch eher in die größenordnung einer 9800 oder GTX+ treten, vll noch eher darunter. NV´s Speicherlastige Architektur und das 192bit Interface sind eindeutig zu wenig um gegen 4870-512 anzugehn.

Für wann soll der chip denn geplant sein, wann soll er im markt sein? glaube kaum das wir den alllzubald in den regalen stehn sehn. Momentan sind eigentlich alle Preisbereiche von beiden Firmen bedient, nur das 150-200€ Segment ist vll ein wenig leer. Und in die Richtung geht der neue chip wohl eher nicht
 
@Mister79: Dir ist aber klar, das in der Fertigung der G80/G92 um einiges mehr kosten wird als dein GT216 in 40nm?
Zudem können sie aus dem Fertigungsprozess lernen. War doch auch schon so bei der 9800GTX+ und jetz wird die Technik beim GT200 angewandt.
 
Wiesi21 schrieb:
naja, selbst wenn die sehr hoch getakteten Ram haben, werden sie wohl langsamer sein als z.B. ne 9800GTX+ !
Vorallem in hohen Auflösungen.
Ich meine selbst 256 Bit sind in Verbindung mit DDR3 mit höchstmöglichen Taktraten, bei den 9800GTX der Flaschenhals, da hilft auch die Speichermengenerweiterung nichts.
Der G92 hatte ja nur auf Grund des beschnittenen Interface am Anfang das Nachsehen gegenüber dem G80...

Meiner Meinung nach werden solche Karten wohl eher unteres Midrange-Segment

Die G92 GPUs profitieren von einer erhöhten Speicherbandbreite weniger als viele meinen. ;)
Hohe GPU- & Shadertakte, das ist was diese GPUs mögen/bauchen.
 
ich kann meinem vorredner nicht zustimmen. Es gibt mehrere Anzeichen, dass die G92 und G92b GPUs nicht optimal ausbalanciert sind:
- Die 9600GT hat halb soviele shader, aber eine ähnliche Bandbreite wie die 9800GT und liegt nur ca. 20% zurück.
- Die 8800Ultra ist in vielen Games immernoch schneller als eine 9800GTX und manchmal auch als eine 9800GTX+ und das trotz der verdoppelten TAUs und weiteren Effizienzverbesserungen der G92-Serie. Das zeigt deutlich, dass bandbreite hier mehr zählt als Shadertakt und Füllrate.

Ein 192bit interface macht nur in Kombination mit GDDR5 einigermaßen Sinn. Dann wäre die Karte sicherlich in der Lage den rv740 zu überflügeln, womöglich aber auch mal wieder teurer in der Herstellung und größer.

Das Große Dilemma des G92 ist, dass er viel zu teuer für den mainstream ist. Der G92b war ein schlechter shrink mit wenig verkleinerung und passabler taktausbeute und stromverbrauch. Das reicht nicht um aus dem ehemals highend G92 einen mainstreamfähigen chip zu machen.
Der rv770pro ist nicht größer oder teurer als der G92 und hat ein sehr einfaches Boardlayout aber eben viel billigeren RAM. Die 9800GTX+ hat dadurch für nvidia geringere Margen als die 4850 für AMD.

Schlimmer siehts bei noch bei 9600GT vs 4670 aus, wobei man zugeben muss dass erstere auch rund 10% schneller ist. G94 ist mit 225 mm² fast so groß wie wie rv770, muss jedoch fast im selben Preisbereich wie der 150mm² rv730 antreten.

Am schlimmsten siehts im Bereich aus wo normalerweise die großen Gewinne gemacht werden, im Lowend. G96 mit 119mm2 (in 55nm) und 128bit tritt gegen AMDs Fliegengewicht RV710 an, mit nur 77mm² und 64bit. Da bleibt für NV gar keine Marge mehr, während ATI mit viel niedrigeren produktionskosten und einem gleichwertigen Produkt die großen gewinne einstreicht. Dafür hat nvidia ja aber noch den unterirdischen G98 der von vielen Idioten wohl noch gekauft wird. der Chip ist etwa so billig wie rv710, hat abe rnur ein Bruchteil der performance von rv710, was in diesem preisbereich wohl aber nocht so auffällt.

Nvidia sollte sich deutlich auf eine billigere Fertigung konzentrieren, sonst sieht es von der finanziellen Seite Asche aus, nachdem man schon jetzt große Verluste einfährt...
Vielleicht ist GT216 ja ein Schritt in die richtige Richtung.
 
@davidzo: Dann zieh' doch mal bei 'ner G92 (!), nicht G98/96/94 GPU, den VRam Takt hoch.
Du wirst sehen, dass das nicht wirklich viel bringt.

Es gab kurz nach erscheinen der 9800 GTX mal 'nen Test bezüglich G92 und Speicherbandbreite. (aber den finde ich grad nich :()
Das Ergebnis war, dass eine Vergrößerung des SI via Taktanhebung relativ wenig brachte im Vergleich zu Steigerung des GPU- & Shadertakts.

;)
 
Kommt drauf an, wie die GPU nun letztendlich ausgelegt sein wird und wie die hoch die Taktraten liegen werden.
168 SPs und 56 TMUs sind ja nicht die einzige Spekulation, es gibt ja auch die Vermutung, dass pro Shadercluster gleich 40 SPs verwendet werden, so dass man auf 160 SPs und 32 TMUs kommt.
Andere Spekulationen gehen von 32 SPs pro Shadercluster aus, was in 160 SPs und 40 TMUs resultiert.
Unbekannt ist desweiteren die Anzahl der ROPs. Bei einem 192-Bit-SI sind 12 ROPs wahrscheinlich, aber auch 24 ROPs denkbar.
Die Taktraten sind auch noch völlig offen abgesehen vom Speichertakt (1200 MHz GDDR3).
600 MHz Chiptakt und 1400 MHz Shadertakt wären wohl etwas konservativ für eine kompakten Mainstream-GPUs, eher könnte es auf 700 MHz Chiptakt und 1600 MHz Shadertakt hinauslaufen.

Jedenfalls ist von der Performance her zwischen 9800-GT-Niveau und 9800-GTX+-Niveau alles denkbar. GTX-260-Niveau wird man aber auch mit sehr hohen Taktraten aufgrund der geringen Speicherbandbreite nicht erreichen.
 
Sollte die Performance wirklich nur zw 9800GT und GTX+ liegen wär ich enttäuscht. Hätte ja dann kaum mehr Saft als meine, und für den wahrscheinlich geringern Stromverbrauch zahl ich auch keine 150€.
Hät gerne mal ne Karte mit der Performance einer GTX260, mit dem Stromverbrauch meiner GTS512 ^^
 
Solange kein Spiel kommt das ich absolut nicht spielen kann wart ich das auch :) (Crysis außen vor)
Nur gibts halt schon so viel geiles an Technik, und es ist ernüchternd zu sehen, das mir das alles nix bringt ^^
Naja der Geldbeutel freut sich.
 
GTA4 ist wohl ein neuer Mitspieler in der Crysis Liga. ;)

Ansonsten:
Der GTX 260 Nachfolger soll gefälligst
  • schneller
  • leiser
  • kühler
  • und billiger sein

Und billiger heisst bitte s maximal 250 Euro. Ausserdem will ich 1024 MB. 768 MB habe ich schon auf meiner 8800 GTX, wobei die ein 384bit Interface hat ( 12x32bit bei DDR3).

Alles klar Nividia ?!? :mad:

Un wie die Karte dann aussieht ist mir so was von egal, Hauptsache sie erfüllt meine genannten Anforderungen.

Also frohe Weihnachten und dann wieder an die Arbeit.
 
MunichRules schrieb:
GTA4 ist wohl ein neuer Mitspieler in der Crysis Liga. ;)
Nicht wirklich. GTA 4 braucht vor allem viel CPU-Power. Mit meiner Radeon HD 2900 Pro läuft 1920x1200 genauso flüssig wie 800x600, d.h. mit ~20 fps. Als CPU dient mir ein Core 2 Duo E4300 @ 3 GHz.
Um GTA 4 mit 1920x1200 flüssig zocken zu können, reicht eine GeForce 9800 GT - möglichst mit 1 GiB VRAM zwecks hoher Texturdetails.
Ein Kumpel kann GTA 4 durchgehend flüssig spielen mit seiner 8800 GTS 512 MiB. Er hat halt einen flotten Quadcore (Q9550 @ 3,2 GHz).

Btw.: In GTA 4 reicht selbst eine GeForce 8600 GTS 512 MiB, um in 1680x1050 mit medium-Texturen um die 20 fps zu haben.
Dass GTA 4 stark CPU-limitiert ist, sieht man auch hier:
http://www.pcgameshardware.de/aid,670856/Test/Benchmark/GTA_4_PC-_Benchmark_mit_7_Grafikkarten_von_Ati_und_Nvidia/?page=2
Eine 9800 GT ist dort mit 33 fps praktisch gleichschnell wie die GTX 280 mit 35 fps. Die ATIs agieren zwar insgesamt auf einem niedrigeren Niveau, aber auch hier ist bei gleichem VRAM-Ausbau eine starke CPU-Limitierung zu sehen.
Für GTA 4 reicht eine 9800 GT 1024 MiB voll und ganz für maximale Details in 1920x1200 bei 30 fps aus. Man braucht aber einen Quadcore @ 3 GHz, um dieses Niveau durchgehend halten zu können.
Wenn aber mal AntiAliasing unterstützt wird, könnte die GTX 280 doch deutlich im Vorteil sein.
Wer gerne mit ~60 fps zockt, kommt im Fall von GTA 4 nicht um einen übertakteten Core i7 herum. Auch drei GTX 285 im 3-way-SLI können keine 60 fps liefern, solange die CPU-Leistung nicht stimmt. Und der Core i7 ist bislang die einzige CPU, mit der ich bei GTA 4 über 60 fps gesehen habe.
 
Zuletzt bearbeitet:
20 oder 35 fps klingt leider nicht nach ruckelfrei ;)

Und die neuen iCore7 kommen leider auch nur mit 3,2 GHz daher :rolleyes:
 
Zurück
Oben