Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Nvidia konnte mit der GeForce-200-Reihe (ComputerBase-Test) auf Basis des GT200 einen durchaus beachtlichen Start hinlegen und die Performance-Krone im Bereich der Single-Chip-Lösungen in den eigenen Reihen halten. Dennoch sorgt die neue Generation für Probleme bei den Grünen.
Im 4ten Quartal schonwieder eine Neue Generation? Na die legen ja ein ganz schönes Tempo vor. Wenn der Performance Sprung ähnlich ausfällt wie von G98 auf G200 wäre das ne feine Sache. Zumal 45Nm dafür sorgen könnten das die Karten nicht noch Stromhungriger werden.
Man sieht, Nvidia hat ATI unterschätzt und Ihre GT200 weit überschätzt.
Ich freu mich, dass Nvidia unter Druck gerät.
Die Arroganz DX 10.1 einfach zu ignorieren gehört auch bestraft.
Meine nächtes Karte wird zu 95% Sicherheit eine AMD/ATI.
Wollte ja eigentlich noch den Shrink des GT200 abwarten, aber wenn es sich bewahrheitet, dass dieser gar nicht kommt, dann auf jeden Fall die 4870.
Da wird ja noch ein Spannendes Jahr am besten währe es mann kauft einen neue Grafikkarte erst nächtes Jahr da ja jetzt anscheinend immer was anderes kommen wird.
Jo, feine sache. Wollte mir eigentlich auch den GT200 holen, aber wenn das wirklich stimmt, warte ich noch bis ende des Jahres mit dem kauf einer neuen Graka.
Habe zur Zeit 'ne 8800GTX in meiner Rechnemaschine drinn und die reicht immo noch.
Ich überlege auch schon seit Jahren mal wieder auf (AMD)ATI umzusteigen, obwohl mich die 9700 damals nicht wirklich überzeugen konnte. Die 4000er Karten sind aber schon ziemlich verlockend und es ist ja auch einiges passiert seit den 9700er Karten...
Weiß jemand wie es denn nun um die Mikroruckler der 4870X2 stehen soll? Sind das alles nur Gerüchte oder gabs schon ein offizielles Statement, dass diese bei den neuen Karten der Vergangenheit angehören? Achja, und wie sieht das mit dem Anschluss von 2 Ausgabegeräten aus? Da gabs doch bisher auch Einschränkungen bei Multi GPU Karten.
Das versteh ich nicht ganz. Es steht doch Nvidia frei welche Technologien verwendet werden oder nicht.
Ich sehe keinen Vorteil darin, zumal DX10 eigentlich noch keinen Standard dartsellt.
Aaah, das geht einfach alles so schnell! Nv und ATI scheinen ja doch noch die einen oder andere Mark mit uns zu machen, ansonsten sind diese Umstellungen in so kurzen Zeiträumen doch gar nicht zu finanzieren.
Da stimmt doch was nicht mit der Überschrift: müsste die nicht "Nvidia: GT300, DirectX10.1 und 45 nm" lauten?
Topic: Sehr interessant. Allerdings bin ich leicht Überascht, dass NVidia schon in Q4 die nächste Generation bringen will. Obs dann wohl wieder so ein Namenschaos geben wird.
Auf jeden Fall muss der Chip günstiger werden. Die Ausbeute wird zwar dank 45nm deutlich höher liegen, aber wohl trotzdem weit unter der von AMD/ATI, was die Preisgestalltung wohl nicht einfacher macht.
Und dass DX10.1 eingebaut wird konnte man ja hoffen. Wobei das der GT200 Serie auch schon geholfen hätte.
Wie auch immer. Mir scheint die GT200er haben einen schweren Stand. Und wer sich jetzt eine teure GTX280 gekauft hat wird das vielleicht in wenigen Monaten bereuen...
War ja klar das NV die GT300 rausbricht. Denn die stehen unter druck . UNd am 14.07 kommt die 4870x2 raus. Wie wir alle wiessen ist der RV770 Chip nur eine Update des RV670. Den ab November kommt der RV870 mit ca. 1200 Shader einheiten und wird auf bin mir nicht sicher ob 40nm oder 45nm gefertigt. DDR5 mit 5Gh und die Post geht ab!
Die info stammt von einen Freund der bei infenon arbeitet.
NV wirds schwer haben
Zuletzt bearbeitet von einem Moderator:
(Multiple Satzendzeichen entfernt. Bitte Regeln beachten!)
Natürlich steht es Nvidia frei eine Technologie nicht zu unterstützen. Jedoch ist es alles andere als fortschrittlich, wenn dafür Spieleentwickler diese dann auch nicht nutzen (dürfen? Stichwort: TWIMTBP). So kann man auch Entwicklung und Fortschritt aufhalten... http://www.fudzilla.com/index.php?option=com_content&task=view&id=8344&Itemid=34
Nun, da sieht man mal wie die Gerüchteküche brodelt. Die einen sagen dies, die anderen jenes.
Laut Fudzilla wird Nvidia definitiv niemals DirectX 10.1 unterstützen, sondern sich mit der nächsten Chip-Generation gleich auf DirectX 11 konzentrieren. Da Nvidia durch sein "The Way It's Meant To Be Played"-Programm mit vielen Entwicklern zusammen arbeite, würden diese ebenfalls auf DirectX 10.1 verzichten. Auch ein auf 55nm geschrumpfter GT200b wäre ein reiner DirectX 10.0-Chip, danach käme bereits die DirectX 11-Generation.
Natürlich, können die Grafikkarten auch ganz Einstellen, aber es ist arrogant einen Grafikkartenstandard komplett zu ignorieren. Und es ist eine Frechheit, Spieleentwickler dazu zu bringen DX10.1 nicht zu nutzen, weil Nvidia dies icht unterstützt. Siehe Assasins Creed, unterstützte DX10.1 bis Nvidia auf den patch bestand, der es entfernte.
Stinger, ich wette dagegen . Nicht am gleichen Tag, sondern schon ein paar Wochen vorher, damits nicht ganz so gestellt aussieht
PS: Offiziell bewiesen ist es aber nicht? Und die komplette Schuld liegt auch garantiert nicht bei NVidia -zumindest nicht zu 100%- denn sonst hätte AMD ja Stress gemacht ohne Ende, was ja auch selbstverständlich wäre. Aber soweit ich weiß hat AMD sogar zugegeben, dass die DX 10.1 API in AC fehlerhaft ist.
Fazit: Klar ist NV schuldig, aber bestimmt nicht der einzige Schuldige Denn wäre die DX 10.1 nicht fehlerhaft wie NV behauptet, hätte AMD sicher heftig protestiert.
Das wäre Nvidia zwar zuzutrauen, ich halte es aber für nicht sehr wahrscheinlich, da sie ja schon bald wohl die Leistungskrone an ATi abgeben müssen... ;-) Bei der unerhörten Transistorzahl wird der Shrink auf jeden Fall das wahrscheinlichste sein, alles andere wäre optional. Es sonnt sich ja so schön in Kalifornien, da muß man nicht ganz so viel machen.