News Nvidias Grafikkarten-Angebot ab dem 3. Quartal

Hoffen wir mal dass dieses Gerücht wahr wird.

Die Namensgebung ist mir grundsätzlich egal, einzig die Leistung ist ausschlaggebend.

Ich würde sogar soweit gehen zu sagen dass der GT200 gleich mit GDDR5 gelaunched wird, da dieser dann scheinbar verfügbar ist. (siehe ATI)

Auf jeden Fall wurde es allerhöchste Zeit für dieses Stück Hardware, bis dato gibt es keine Hardware zu kaufen die auf meinem 30" TFT (2560x1600) Crysis [Very High /AF 16] spielbar darstellen kann.
Selbst ein Triple SLI Gespann aus 3 8800Ultra schafft dies nur bis 1920x1200.

Wenn ein SLI aus zwei 9900GTX das packt wäre ich glücklich. :)
 
Ich würde sogar soweit gehen zu sagen dass der GT200 gleich mit GDDR5 gelaunched wird, da dieser dann scheinbar verfügbar ist. (siehe ATI)

Ich glaub, nVidia ist der noch zu teuer, ddr3 reicht für die KArte aber auch aus

Wenn ein SLI aus zwei 9900GTX das packt wäre ich glücklich.
Ich auch:D
 
Ich glaube Crysis in Very High, 2560x1600, 16x AF, 8x AA schafft bis in zwei Jahren nix. :D Auch nicht 3 9900 GTX...
 
Spekulationen bringen da auch nix. Ich freu mich lieber auf einen objektiven Test von GT200 vs R770. Auch wenn ich persönlich niemals eine höhere auflösung in Spielen als 1024x768 (völlig unnötig) einstelle find ich es recht interessant wie schnell die Karten mittlerweile geworden sind bei hohen Auflösungen.
 
von wem lässt nvidia die produkbezeichnungen festlegen? bzw welche drogen nimmt die verantwortliche person? erst ein laues update als generationssprung verkaufen und nun wird ein generationssprung als laues update "angepriesen".

verstehe nvidia wer will - ich will nicht.
 
Der Schritt von 8800 GTX zu 9800 GX2 war auch schon 35%.

Fairer wäre der Vergleich zur 9800GTX (single cards) und da sinds mit AA und hohen Auflösungen keine 35% mehr, sondern bewegt sich von 7%-15%. Mal von allen Negativeigenschaften von Multi-GPU abgesehen.

@topic

Hoffe die GTS kostet nicht wieder, wie bei der 8er Generation, weit über 300 Eier. Wobei die 8800gts 640 im Vergleich zur 7er Generation schon ihr Geld wert war. Aber wenn die 4000er Karten von ATI konkurenzfähig werden (*träum*) haut das wahrscheinlich auch den Preis der GTS in Keller.

bleibt nur abzuwarten

mfg
 
Zuletzt bearbeitet:
Wenn man sich die Entstehungsgeschichte des G100 anschaut, wird klar, was hier läuft.

Ähnlich dem Tick-Tock-Prinzip von Intel wird ein neuer Chip erst eingeführt, dann geshrinkt und in seiner Architektur leicht verbessert. Aus dem G80 wurde der G90. Als Nvidia die Entwickung des G100 startete, merkte man nach der HD2000 und HD3000 von ATi allerdings irgendwann, dass man den G100 noch gar nicht brauchte, weil ATi nicht den Überhammer hatte und auch mit dem R700 nicht haben wird (meine Vermutung).

Warum also den G100 (GT100, also den Geforce 10.000 = Ten One Hundred) bringen? Risiken eingehen?

Nein, statt dessen ein weiterer Zwischenschritt, um aus dem G80-Ursprung nach dem G90 noch ein weiteres Mal - Evolution statt Revolution - eine verbesserte Version nachzulegen. Den GT200.

Die bescheuerte Namensgebung der internen Codes mal ausser acht gelassen: Mit dem GT200, der die Oberklasse der 9er Serie bald darstellt, handelt es sich um einen weiter verbesserten und erweiterten G90. Solange es noch die 9er Serie gibt und man ATi in Schach halten kann, lässt sich damit ein bisschen Riskio eingehen und Erfahrung sammeln. Man probiert ein 512er SI, man testet den Markt mit 1GB- und 2GB-VRAM-Varianten. Vielleicht riskiert man auch einen weiteren Shrink auf 55nm damit.

Die Architektur ist nochmals verbessert, die Ageia-Physik-Unterstützung könnte mit drauf sein, etc. So hat man Luft, um auch zu sehen, wohin ATi mit einem R800 hinsteuert und was Intel mit seinem Larabee macht, dem man auch gut mit der 9er Serie begegnen kann. (Meiner Meinung nach wird der Larabee kein High-End, sondern auf Midrange und Mobile setzen.)

Warum also den G100 bringen, wenn dazu keine Notwendigkeit besteht? Die Gewinne laufen jedes Jahr besser, also macht man das, was ein gutes Unternehmen macht: Aus dem bestehenden Portfolio mit Evolutionen Kohle machen.

Die 9900 wird sicher schneller sein als die "alte" 9800GTX, aber keineswegs der Überflieger, den sich viele erhoffen. Sie eröffnet weitere Marketing-Meilensteine: Rausbringen, dann Taktraten erhöhen, dann vielleicht sogar noch eine Dual-Chip nachlegen nach Vorbild GX2, aber nur, wenn es sein muss. ATi wird mit dem R700 (Single) an die 9900 herankommen, sie aber nur mit dem R770 (dual) schlagen können - wenn überhaupt.

Und so geht das ganze Spielchen noch ein weiteres Jahr ins Land, vielleicht sogar zwei. Bis der G100 dann endlich kommt, an dem sich ATi wieder mit einem R800 die Zähne ausbeissen darf, während Intel mit dem Larabee die Midrange-Gewinne als dritter im Bunde abbeisst. Nvidia und Intel könnten sich da ganz gut verstehen, weil sie ähnliche Ziele haben. Leider gehen die gegen AMD/ATi.
 
Ich vermute, dass in Zukunft kein Chip die interne Bezeichnung G100 bekommen wird.
Man glaubte Anfangs ja auch nur, dass der G70 ein Zwischending wird und danach der NV50
kommen wird. Danach kam aber der G71, G80...

Ich glaube, dass es mit der internen Bezeichnung GT210 oder eher noch GT300
weitergehen wird. Aber wie gesagt alles nur Spekulation und eigentlich kanns uns egal sein^^
 
@ Dietronix

Klingt alles schön und gut.

Der RV770 kommt mit rund 50% mehr Power als der RV670, sofern die Specs stimmen und würde damit auf dem Niveau einer gut skalierenden X2 oder GX2 liegen. Der GT200 trägt offenbar aber kaum noch G80 Gene in sich, sollten die 240 ALUs stimmen. Somit wäre er zu einem gewissen Teil neu entwickelt. btw nV und AMD gehen gegen Intel ... PhysX ...

cYa
 
Das ist gut möglich. Ich wollte damit eigentlich nur sagen, dass der GT200 (=9900) nicht den ganz neuen Chip darstellt (G100), sondern eine nochmalige Erweiterung der G92-Basis.

Ums klarer zu machen: Die 9900GTX reizt durch Überarbeitung und Zusatzfunktionen die ursprüngliche Architektur des G90, die auf dem G80 basiert, bis an den Anschlag aus - inklusive 512er SI. Sie ist sozusagen das letzte Abschiedsgeschenk an die G80-Basis.

Die wirklich neue und fette Generation schlummert in dem, was mal mit G100 bezeichnet wurde - frühester möglicher Lauch 2009.


Und noch einen oben drauf gesetzt: Nvidia wartet ab, wohin der Markt geht. Es mag sogar gut sein, dass der ursprünglich als G100 bezeichnete neue Chip bei 55nm so ziemlich alle Grenzen reißt, die thermisches Verhalten und Stromverbrauch setzen. Also müsste man diesen neuen Wunderchip mindestens auf 45nm shrinken - uaah... Risiko. Besser lassen. Warum also nicht den Weg von Intel gehen? Wie wäre es mit der Entwicklung einer Technik, die eine G92-/GT200-Quad-Struktur ermöglicht? Ohne Mikroruckler?

Das würde bedeuten, dass man vom getrennten Bild-pro-Bild-Berechnen (SLI, CF) absieht und ein Bild auf zwei oder vier GPU-Einheiten zur Berechnung aufteilt, die dieses eine Bild ausspucken (Frame). Hier nun - und an dieser Stelle wirds interessant - steht einer im Weg, der die Basis und die Schnittstelle vorgibt, nämlich das OS (siehe ATis Erläuterung zur Unmöglichkeit, Mikroruckler per Treiber zu beseitigen) und DirectX: Microsoft.

Der Traum Nvidias (den übrigens auch Intel mit seiner eingekauften Raytracing-Idee träumt) ist: Wir machen unsere Schnittstellen selber.


Darin liegt im Übrigen auch das Problem. Denn die Grundlagen der Spieleprogrammierung geraten momentan ins Wanken. Längst überfällig. Die Rasterisierung ist ein alter Pferdefuß - trotzdem wird immer noch auf diesem veralteten Prinzip der Dreiecksberechnung, Gittermodelle, etc. programmiert. Shader sind da nur Notlösungen zum Verhübschen. Um wirklich weiter zu kommen, müsste man das über Bord werfen - aber da liegt das Problem. Preisfrage: Wie will man über fast 20 Jahre eingetretene Pfade loswerden? Und DirectX dazu?

Deshalb das große Abwarten - denn mit immer komplexeren und hitzigeren Chips auf Basis eines veralteten Berechnungssystems wird man nicht mehr zum Fotorealismus kommen. Es sei denn - als Zwischenlösung -, man würde die Spieleprogrammierer dazu bewegen können, ihre Spiele nicht nur auf CPU-Multicore zu kriegen, wie es Intel mit Alan Wake versucht (Quad), sondern eben auch auf GPU-Multicore, um wenigstens statt mit dem Prinzip "einen großen Chip" es mit "vielen kleineren" versuchen zu können. Aber, wie gesagt, da steht OS und Schnittstelle = Microsoft im Weg.


Edit @y33H@: Dein Post kam, während meiner hier entstand. Das, was Du mit "zu einem gewissen Teil neu entwickelt" meinst, meinte ich mit Evolution & Weiterentwicklung - auf Basis eben des G90, der seine Basis auf dem G80 hat. Ich bin da ganz Deiner Meinung, dass der GT200 etwas Neues in sich trägt und nicht nur ein bloßes Shrinking oder OCing ist. Der GT200 ist aber nicht der ursprüngliche G100. Das Ding, der G100, ist, meiner Meinung nach, das, was sich viele hier unter "komplett neuer Generation" vorstellen.



.
 
Zuletzt bearbeitet:
Warum willst du G80 loswerden? Ist doch eine super Architektur.
Was fehlt ist eine bessere Fertigung, also 55nm und später 45nm. Der Die ist voll und groß da hilft auch kein neues Design.
G92 oder wie immer du es nennst ist nicht ausgepresst, beim GT200 ist nur 65nm ausgepresst.

Du willst Multi Die GPU? Ich nicht, die Probleme sind nicht mal eben gelöst.
 
Die Frage ist eher: Warum sollte Nvidia G80 loswerden wollen? Genau darum gehts ja. :)

Und das, was Du grade ansprichst, wird exakt passieren: Die-Shrinks. Meiner Meinung nach ist der GT200 das Äußerste, was man auf Basis G80/G90 machen kann - und die Kiste wird geshrinkt bis 45nm. Das wäre ein sehr gute Alternative. Bis... dann am Ende ein weiterer Shrink nicht mehr drin ist.


Dafür braucht es dann einen G100, der gleich mit 55nm, besser mit 45nm starten kann, weil er sonst zum thermisch-stromfressenden Monster würde. Das Problem liegt... siehe oben. Einbahnstraße Spieleprogrammierungsprinzip.

Abgesehen davon will ich kein SLI oder CF mitsamt Mikrorucklern, sondern eine echte Aufteilung eines Frames auf mehrere GPU-Einheiten. Dafür müsste man aber... eben. Wiederum: Siehe oben.

Ich kann mir nicht vorstellen, dass darüber nicht bei NV, ATi und Intel nachgedacht wird. Wird ja.




.
 
Zuletzt bearbeitet:
:rolleyesna toll dann hab ich mir ja umsonst eine 9800gx2 zugelegt wenn die neue wirklich sonen leistungs sprung macht werde ich mir wohl bald wieder eine zulegen müssen aber diesmal werde ich erst die tests abwarten:)
 
Warum Einbahnstrasse?
Mit 55nm kannst Nvidia den GT200 um weitere Transistoren erweitern, mit 45nm noch mehr.
Mit 45nm wären dann schon 2 Milliarden Transistoren möglich, alles auf Basis des verbesserten G80.
Theoretisch könnte Nvidia den G80 jetzt die nächsten Jahre behalten, alles kein Thema, sofern weiterhin regelmäßig Die-Shrinks verfügbar sind und da ist erst mal kein großes Problem in Sicht.
Überleg mal, wie lange uns NV30 oder R300 begleitet hat, natürlich immer mit Verbesserungen, aber GT200 ist auch nicht mehr exakt ein G80.

Was du willst ist das 3DFX SLi oder SFR oder SuperTiling.
Das Bild in Streifen schneiden? Warum wohl wird immer AFR und nicht SFR genommen?
Du kannst heute nicht mehr so einfach dahergehen und das Bild in 2 Streifen schneiden oder schlimmer in 1000 Streifen wie bei 3DFX.
AFR ist das einzig brauchbare heute, mit all den Nachteilen.
 
Was auch immer der GT200 ist: Eine 9800 GX2 kann Crysis in Very High, 1920x1200, 1xAA, 1xAF mit 25 FPS darstellen.

Wenn die GT200 das auch kann, ohne eine Dualcore-Karte zu sein (Lärm, Platz, Stromverbrauch, Microruckler), ist er super. Und dank 512 Bit Speicherinterface wird höheres AA kein Problem sein.

Und wenn Nvidia enttäuscht, schaut man halt aufs PL Verhältnis und holt sich ne gute Karte für 200-250 EUR.
 
Warum macht es nVidia eigentlich so kompliziert???

Die hätten einfach mit dem G92 die 9000er Serie einführen sollen also so:
9800GS = 8800GT 256
9800GT = 8800GT
9800GTS = 8800GTS 512
9800GTX = 9800GTX
9800GX2 = 9800GX2

und dann ab GT200 mit 9900er Serie beginnen

Bei der GeForce 8 serie hätten die auch die 8800GTS nich in 320 und 640 sonderen Einfach die 320er GT und die 640er GTS nennen sollen...

die verwirren irgendwie alle
 
Dietronix schrieb:
Die Architektur ist nochmals verbessert, die Ageia-Physik-Unterstützung könnte mit drauf sein, etc. So hat man Luft, um auch zu sehen, wohin ATi mit einem R800 hinsteuert und was Intel mit seinem Larabee macht, dem man auch gut mit der 9er Serie begegnen kann. (Meiner Meinung nach wird der Larabee kein High-End, sondern auf Midrange und Mobile setzen.)

Wenn du dir die Marktanteile anguckst,dann hast Intel jetzt schon die größten marktanteile, tendenz steigend. Im low und Mobile bereich sind sie einsame Spitze. Midrange haben sie noch gar nichts,aber laut Intel solls au eine Spitzenkarte vom Larabee geben. Da muss man abwarten und gucken was raus kommt.
Aber Nvidia verliert übrigens momentan Marktanteile, mit dem HD3000 hat ATI wieder (lasst mich net lügen, kenn die zahl nema auwendig) 28% mehr chips verkauft und au wieder ein wenig % gut gemacht. Nvidia fährt zwar noch plus,aber sie kämpfen um den Mainstreammarkt, wo man 95% des Umsatzes macht. Da machen High End kraftwerke auch nicht viel. Trotzdem glaube ich,dass es mit dem R700 wieder spannender werden könnte, und auch glaube ich nicht, dass Nvidia noch zig generationen von Chips einfach auf Reserve hält um zu gucken was die Konkurenz macht. Ich glaube eher, dass die wenn sie die Möglichkeit hätten gleich alles wegburnen würden.
Zudem kostet die Entwicklung solch einer "überragenden" Architektur wie des G100 (wenns stimmt) bzw der fortentwicklunng des GT200 zig millionen bis milliarden. Wenn aber eine Firma wie Nvidia mit 5Milliarden Umsatz im jahr noch Mililarden in die Entwicklung steckt und diese dann zurückhält würde das nicht ganz aufgehn.
Warum also den G100 bringen, wenn dazu keine Notwendigkeit besteht? Die Gewinne laufen jedes Jahr besser, also macht man das, was ein gutes Unternehmen macht: Aus dem bestehenden Portfolio mit Evolutionen Kohle machen.

Wie oben gesagt, mit dem R600 stiegen die Gewinne überdimensional, bereits mit dem R670 bzw der HD3000 reihe steigen die Gewinne nicht mehr so, wie sie taten.
Die 9900 wird sicher schneller sein als die "alte" 9800GTX, aber keineswegs der Überflieger, den sich viele erhoffen. Sie eröffnet weitere Marketing-Meilensteine: Rausbringen, dann Taktraten erhöhen, dann vielleicht sogar noch eine Dual-Chip nachlegen nach Vorbild GX2, aber nur, wenn es sein muss. ATi wird mit dem R700 (Single) an die 9900 herankommen, sie aber nur mit dem R770 (dual) schlagen können - wenn überhaupt.

Da bin ich auch der Meinung, die 9900GTX wird wohl in jeder HInsicht schneller sein als die 8800GTX und vor allem die 9800GTX, jedoch auch nicht der Überhammer. Und wenn außnahmsweise stimmt was die beiden Firmen sagen, nvidia mit einem durchschnittsplus von 40% mit der nächsten "Generation) und ati mit dem R780 die doppelte theoretische Leistung des R770 bringt,welche dauerhaft die max theoretische Leistung des R680 (x2) bringt, dann wird die neue X2 phänomenal schnell und der R770 jetzt schon gute 30% schneller wie die Ultra. Aber lasst uns abwarten,wenn sie halten was sie versprechen könnten wir uns auf nen warmen Sommer freun.
Und so geht das ganze Spielchen noch ein weiteres Jahr ins Land, vielleicht sogar zwei. Bis der G100 dann endlich kommt, an dem sich ATi wieder mit einem R800 die Zähne ausbeissen darf, während Intel mit dem Larabee die Midrange-Gewinne als dritter im Bunde abbeisst. Nvidia und Intel könnten sich da ganz gut verstehen, weil sie ähnliche Ziele haben. Leider gehen die gegen AMD/ATi.

Du vergisst vielleicht,dass vor der HD2000 Blamage ATI und Nvidia die dicksten Konkurenten waren und immer ca gleichauf waren, bis vor der HD2000 blamage und der Übernahme durch AMD war sogar immer ATI marktführend. Aber aus solchen Blamagen kämpft man sich wieder raus, sie die FX serie von Nvidia. Ich glaube dass ATI mit dem R770 mehr oder weniger gleichsetzen kann mit Nvidia da in meinen Augen diese zu sehr auf Geldmache aus sind und die Entwicklung evt leicht unterschätzt haben, aufgrund ihres Megaerfolges des G80 und der MultiGPU entwicklung.
Aber wie gesagt,ist meine persönliche Meinung.

y33H@ schrieb:
@ Dietronix

Klingt alles schön und gut.

Der RV770 kommt mit rund 50% mehr Power als der RV670, sofern die Specs stimmen und würde damit auf dem Niveau einer gut skalierenden X2 oder GX2 liegen. Der GT200 trägt offenbar aber kaum noch G80 Gene in sich, sollten die 240 ALUs stimmen. Somit wäre er zu einem gewissen Teil neu entwickelt. btw nV und AMD gehen gegen Intel ... PhysX ...

cYa

Genau, ich glaube nicht,dass der GT200 viel schneller sein wird als die GX2, also ein SLI aus zwei g92, solang diese gut skalieren. Und da der R770 schon in etwa auf das Niveau setzen soll könnte (betonung liegt auf könnte) es wieder spannend werden. Zudem muss ich Y33H recht geben, Intel und Nvidia sind alles andere als verbündete, eher ist es so, dass ATI und Nvidia gegen Intel arbeiten müssen, siehe Marktanteile. Die gleichen Ziele verfolgen übrigens alle^^, die größten Marktanteile und die besten Gewinne.


gruß
 
IgG schrieb:
Was auch immer der GT200 ist: Eine 9800 GX2 kann Crysis in Very High, 1920x1200, 1xAA, 1xAF mit 25 FPS darstellen.

Wenn die GT200 das auch kann, ohne eine Dualcore-Karte zu sein (Lärm, Platz, Stromverbrauch, Microruckler), ist er super. Und dank 512 Bit Speicherinterface wird höheres AA kein Problem sein.

Und wenn Nvidia enttäuscht, schaut man halt aufs PL Verhältnis und holt sich ne gute Karte für 200-250 EUR.

Der Test hier auf CB stimmt sowiso nicht.

Schon die 8800 Ultra schaft 15-20 FPS in Crysis und das bei 1920x1200, 16 AA, 16 AF @ HIGH

Und das mit meinem lausigen Prozessor, der das Spiel versaut, sobald eine Blechhuette
physikalisch korrekt hochgeht.^^


gruss
 
Der Test hier auf CB stimmt sowiso nicht.
Natürlich stimmt der Test von CB!


Der GX2 512MB geht einfach der VRam viel zu schnell aus. Es kann sogar passieren das die Karte abstürzt, weil der VRam einfach total überfüllt ist und dann ist die GF8 Ultra wie der % Balken von CB so schön sagt, unendlich viel schneller. ;)

Wie hier zb. im SLI mit unendlicher Rohleistung aber immer noch 512MB effektiven VRam. Die Rohleistung verpufft einfach oder -> Absturz!
https://www.computerbase.de/2008-03/test-ati-crossfire-x-vs-nvidia-quad-sli/17/#abschnitt_crysis

MfG Kasmo
 
Zuletzt bearbeitet:
'Xander schrieb:
Schon die 8800 Ultra schaft 15-20 FPS in Crysis und das bei 1920x1200, 16 AA, 16 AF @ HIGH

Very high, nicht high...
 
Zurück
Oben