News Nvidia GT200 mit 200 ALUs und 512-Bit-Interface?

Denke mal das das dann endlich was wirklich neues ist und nicht betagte Technik aufgebohrt.
Da ich leider "Mikroruckler" nicht leiden kann fällt SLI &Co für mich aus um noch mehr Grafikleistung zu bekommen.
Hoffe echt das die nächste Generation auch wieder so ein Hammer wird die die 8800er Serie und hoffe das NV sich dem Stromsparen annimmt
 
Ich sag doch Finger weg von 9800GX2 & CO und auf dem GT200 warten. Weil Gedult zahlt sich immer aus ^^
 
Hehe, der GT"200" wird über insgesamt "200" Shaderprozessoren verfügen... Ist doch wohl klar!! Da kommt nichts Krummes oder so^^
 
Project-X schrieb:
Und ich verstehe nicht warum nVidia jetzt ein extra schwaches Chip Entwickeln müssen nur weil der G100 zu Moddern ist, anstatt dies als Ultra High End Future ala DX11 zu vermarkten (Marketing)... :rolleyes:

Wie will man den einen Standart offiziell unterstützen wenn man nicht mal alles darüber weis?
Erst wenn sie die Finalversion kennen können sie die Karte darauf abstimmen...
 
hm..die karte MUSS wohl ein 512bit interface bekommen, ansonsten würde es in hohen auflösungen und qualitätseinstellungen sicherlich nichtmehr viel bringen die chipgeschwindigkeit immer weiter zu steigern...sieht man ja bei der aktuellen generation schon.
 
Mich wundert nur: Wenn die neue Highend-Karte erst im November kommt, dann müssen die bis dahin GTX (8800, 9800) für Lau verkaufen und setzen keine Highend-Karten ab.
 
Nvidia hat doch die schnellsten Karten, die haben doch keinen Druck neue Karten zu bringen!
 
Nvidia hat doch die schnellsten Karten, die haben doch keinen Druck neue Karten zu bringen!

Erstens das und zweitens sind im Spielebereich ja auch die Konsolen Ton angebend. Und da sieht es im Moment eben so aus, dass der PC bzw. alle derzeit erhältlichen PC Grafikkarten mittlerweile locker mit den aktuellen Konsolen mithalten können. Der einzige PC-exklusive Titel, der von einer neuen High End Karte wirklich profitieren würde, wäre Crysis, aber wegen eines Spiels wird sich nVidia mit Sicherheit nicht abstrampeln. Ich wette, dass nVidia wieder deutlich mehr Gas geben wird, sobald die X360, PS3 Nachfolger auf dem Markt sind, weil der PC dann wieder was aufzuholen hat, aber bis dahin wird nach meiner Einschätzung der Grafikkartenmarkt und auch der Spielemarkt im allgemeinen so vor sich hin dümpeln.
Solange keine Konsole DirectX 10 (oder 10.1) unterstützt, wird sich in der Hinsicht sehr wenig tun, da die Unterstützung seitens der Entwickler fehlt (wer entwickelt heutzutage schon noch nur für den PC oder investiert extra Arbeit in eine höherwertige PC Version?). Und PC-exklusive Titel, die die Hardware ans Limit treiben (so wie Crysis) sind halt extrem selten und werden mit Sicherheit in Zukunft noch seltener, da die Studios, die sonst für PC-Exklusivtitel mit Übergrafik gut waren (id, Epic usw.), sich zuletzt dem PC gegenüber eher abfällig geäußert und angekündigt haben, in Zukunft primär den Fokus auf den Konsolenmarkt zu legen.

Wer also mal wieder wirkliche Innovationen und Quantensprünge im Grafikkartenmarkt erleben will, der muss meiner Meinung nach darauf hoffen, dass Microsoft und Sony in nicht allzu ferner Zukunft ihre Konsolennachfolger vorstellen, damit dann die Features, die DirectX 10+ zu bieten hat, plattformübergreifend gefordert werden.
 
Zum direkten Vergleich bietet der G92 dem Kunden 128 ALUs, die sich aus sechs Clustern zu jeweils 16 ALUs (beziehungsweise zwei mal acht) zusammensetzen.

"Dem aufmerksamen Rechner unter unseren Lesern ist jetzt sicherlich aufgefallen" ... , dass 6*16 = 6*(2*8) == 96 != 128.
Oder wie geht die Rechnung auf??
 
Alles nur Gerüchte, das konnte man auch schon vor ein oder zwei Monaten lesen. Die Speicheranbindung von 512 bit ist ein logischer Schritt, den sich jeder hätte denken können.
 
Ich halte diese News für einen verfrühten Aprilscherz.Warum sollte die neue Karte von Nvidia GT 200 heisen,und schon Ende diesen Jahres auf den Markt kommen? NEEEE also das ist nur ein Gerücht aus einer nicht sehr seriösen Quelle.Meiner Meinung nach wird das wie schon immer laufen,d.h. der G100 kommt zu Weihnachten 2008,unterstützt wenn überhaupt Direct X 10.1 und wird so wie jetzt die High End Modelle der 9er Serie für Otto Normal User anfangs unbezahlbar sein.Der GT 200 wenns wirklich wahr sein sollte kommt wohl erst mit Windows 7 auf den Markt,welches dann höchstwahrscheinlich auch Direct X 11 Support bieten wird,denn sonst würden die Gamer ja sicherlich nicht auf Windows 7 umsteigen.Auf Vista wird es dann keinen Direct X 11 Support geben ;) Abwarten und Tee trinken Leute.Aber ich weis,das die Gerüchteküche ja was feines ist weil sie Anlass für die wildesten Spekulationen ist.Auch davon lebt CB :evillol:

Greetz !
 
@ Moriendor

NVidia hat Druck neue Karten zu bringen!
Die haben schon bei den Dual-Chip Karten ziemlich verloren, weil sie die 9800GX2 einfach zu spät rausgebracht haben und ziemlich viele, die sich eher ne GX2 anstatt einer X2 gekauft hätten, wenn sie gleichzeitig rausgekommen wären, haben sich dann doch die X2 gekauft, weil sie keine Lust hatten zu warten!
Der Grafikkartenmarkt wird nicht vor sich hindümpeln, weil viel zu große Konkurrenz zwischen Nvidia und AMD/ATi ist, da kann man sich keine Pause erlauben...
Der PC lag nie zurück von der Grafik im Gegensatz zu den Konsolen, das wird auch immer so bleiben, weil man einen PC einfach immer aufrüsten kann und High-End vom PC immer stärker ist als eine Konsole, ist einfach so!
 
@davidgimbel


Nvidia hat keinen Druck, neue Karten zu bringen, weil sie immer noch die schnellste Karte haben. Und Dual-Chip interessiert eh keine Sau ausser ein paar Freaks.

ATI ist derzeit keine Konkurrenz fuer Nvidia mehr.
 
200 ALUs sind wie oben erwähnt unrealistisch - nicht zu realisieren. Ich denke, er wird mit 192 ALUs daherkommen, was genau 50% mehr Shader Units als beim G80 / G92-400, 450 wär, 512 Bit wäre möglich, aber wenn auch schon ATi bei 256 Bit SI bleibt, könnte dies auch beim GT200 der Fall sein, es sei denn man will wieder mal einen wahren G80 Nachfolger bringen, der auch mit 8x AA/ 16x AF kaum einbricht. Die VRAM Ausstattung wird dann von der Größe des SIs abhängen - 768 oder 1536 MB VRAM bei 384 Bit SI, 512, 1024 oder 2048 MB VRAM bei 256 oder 512 Bit. Aber ich denke, dass der GT200 sicher nicht mit wieder nur 256 Bit SI + 512 MB daherkommen wird, wie dies bei der GF 9800 "High End" der Fall ist.


Bin mal auf einen GT200 GX2:verwandlung: gespannt, laut Jens Neuschäfer (nV) wird ja nun von jeder Serie eine GX2 Version kommen, wird sicher übelste Leistung und falls nV außer Hybrid SLi / Power, was ja nur bei nForce Chipsätzen funktioniert nix in Sachen Stromspartechnik bringt, auch im Idle übelst Saft ziehen.


Gruß
Edge
 
Zuletzt bearbeitet:
Interessanter ist doch die Frage in welchem Fertigungsprozess der Chip gefertigt wird und wie hoch der Idle-Verbrauch sein wird. DX 10.1 gilt als sicher. DX11 kommt erst mit dem G100. Der GT200 wird ein Zwischenritt sein und auf einem erweiterten Design der G80-Basis fussen.

@Henriko
Ein G100 wird bestimmt nicht in diesem Jahr kommen. Die Entwicklungsbezeichnungen werden in der Regel nicht geändert, auch wenn sich die Entwicklung verzögert. Da der G100 bereits länger in der Entwicklung steckt und nVidia davor noch eine Karte zwischen schieben will, ergibt sich so der GT200.
 
@kisser

Sorry, aber das sehe ich anders, natürlich hat Nvidia imMoment Vorsprung im High-End Segment!
Aber ATi ist wohl Konkurrenz für Nvidia, man schaut sich nur die HD3850 bzw. HD3870 an, wären diese nicht so leistungsstark, könnte man heute noch 250€ für ne 88GT bezahlen und 200€ für ne 88GS und ne 96GT!
Seid doch froh über diesen Konkurrenzkampf, für die Endnutzer wirkt sich das doch sehr positiv im Preis aus!
ATi wird wieder zur Konkurrenz, sie hatten bei der X1xxx-Serie die Nase vorn, vor Nvidias-7-Reihe, dann ist ATi zumindestens im High-End Segment mit der 2900XT gegen die Ultra untergegangen, jedoch war die 2600XT durchaus mehr als konkurrenzfähig gegen die 8600GT!
Und jetzt sind sie so langsam dabei, sich wieder heran zu arbeiten an Nvidias High-End Segment!
 
ATI hat im Moment gar kein High-End Segment.
Und ATI muss derzeit die Preise fuer 3850 und 3870 senken, weil Nvidia sie durch die starke 9600GT dazu zwingt.
All das zeigt, dass ATI im Moment keine Konkurrenz zu Nvidia ist, sondern Nv den Markt nach Belieben dominiert.
 
@kisser

Darf ich dich an die Zeit erinnern, an der Nvidia keinen Gegenspieler zur HD3850 hatte!
Wo diese Lücke unausgefüllt war!
Die Lücke zwischen 8600GTS und 8800GT war riesig und es hat ziemlich lange gedauert, bis sie gefüllt wurde...
 
Zurück
Oben