• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Carmack kritisiert GeForce4 MX

Tommy

Chef-Optimist
Teammitglied
Registriert
März 2001
Beiträge
8.193
Nachdem nVidia letzte Woche mit der GeForce 4 die Katze quasi aus dem Sack gelassen hat, fand nun Chefprogrammierer von id Software für die Quake- und Doom-Engine einige Worte zu den neuen nVidia Chips, sowie zu ATis Radeon 8500. Speziell zum Geforce4 MX äußert er sich nicht gerade positiv.

Zur News: Carmack kritisiert GeForce4 MX
 
Endlich mal einer der ein Machtwort spricht.
Hoffentlich merkt nVidia jetzt endlich mal was...
 
MX ist NIX

Reimt sich und stimmt :-)

In mein Rechner kommt ne Gf4Ti-Karte oder Radeon8500XT :-)
 
MX sux. ich hol mir ne ti4600 sobald die erhältlich ist. schon alleine der krasse unterschied von 80FPS in manchen benchmarks und spielen zu der R8500 sollte schon als grund reichen.
 
Ha welch Ironie,

den launch der Geforce3 hat er supportet und die Geforce4"MX" zieht er in den Dreck.

allerdings würd ich sie mir auch nicht kaufen, dann lieber eine TI.
 
@der camper

was heist hier Ironie??
Die GeForce3 war zum Zeitpunkt ihres Erscheinens die leistungsfähigste Karte in Consumer-Bereich.

Was hier massiv stört, ist die Tatsache, daß nVidia dem Käufer einer GF4MX suggeriert ein Topaktulles Produkt auf Basis einer GF4 zu erwerben, was allerdings in keinsterweise der Realität entspicht.
Die GF4MX ist nur eine "aufgebohrte" GF2Ti ohne jegliche DX8 Unterstützung.
Sie ist sogar schlechter (Leistung UND Features) als eine GF3Ti200
 
@Bombwurzel

mir ist Klar das der NV17 keine Leistung & Features eines NV20 haben kann.

bei der Ironie ging es nur um die Person John Carmack der bei einer Apple & nVidia Veranstaltung den Geforce3 in den Himmel gelobt hat und jetzt vom Geforce4MX abrät.

!!! ALSO PECH FÜR nVidia !!!
 
nVidia suckt! Selbst meine alte Geforce3 ist schneller als die Geforce4MX. War schon kurz davor mir eine zu bestellen, habe mich aber nochmal über die Specs informiert und kaufe mir lieber ne GF4TI 4600. Möchte nur wissen wo dass noch hinführen soll, noch dazu wo der Müll eh schon so höllisch teuer ist. Hat eine GF3 noch ca. 450€ gekostet, sind wir jetzt schon bei bei weit über 500€. Ich sag euch Leutz, wenn keiner nVidia kaufen würde, dann würden die Preise auch wieder fallen, da nVidia einsehen müsste, dass sie pleite gehen wenn keiner kauft. Mr. 'Doom3' John Carmack hat schon recht mit seiner kritik, denn die GF4MX ist gegenüber der GF3-Serie ein gewaltiger Rückschritt!
 
Hm, laut dem Bericht wird also die Radeon 8500 bei Doom3 schneller laufen als die GF4 Ti !?
 
Glaub eher die Gf4Ti3600 wird eine spur schneller als die Radeon8500 sein, sie ist trotz alledem höher getaktet
 
Unreal II soll ja um es mit maximalen Details also voller Grafikpracht zu geniesen erstmals sehr viele und grosse Texturen mit bis zu 1024x1024 Grösse nutzen.

Grosse Texturen brauchen in erster Linie viel Grafik-Ram zum schnellem Auslagern, mit einer nur 64MB-Karte würde hier der Ram überfordert und die Karte müsste auf den langsameren Hauptspeicher auslagern was SEHR bremsend wirkt. Es können dort bis zu 1024*1024 Texturgrösse eingestellt werden. ZITAT :"So wird es die Möglichkeit geben den Charakteren extreme High-Res Texturen (1024*1024) zu verpassen. Um diese Grafikpracht zu genießen muss die Grafikkarte dann allerdings über 128 (!) MB verfügen!"

Link :
http://www1.giga.de/storie/0,2850,21503,00.html

Diese 1024*1024 -Möglichkeit gibt es übrigens heute schon, z.B. im Spiel "Serious Sam II"

In "Serious Sam II" kann man jetzt schon im "Advanced-Menü" die Texturgrösse auf 1024*1024 stellen wodurch dann eben die Grafik noch detailierter und schöner wird ;-)
 
lol,die fachmaenner ueberhaupt am werk hier..Apophis deinen beitrag finde ich sehr widersprüchlich..
 
lol,die fachmaenner ueberhaupt am werk hier..Apophis deinen beitrag finde ich sehr widersprüchlich..
 
Am besten man kauft sich 2 Grafikkarten, die Radeon8500 steckt man für DOOM III rein um die "6 Texturen in einem Rechendruchgang" zu haben und bei Unreall II stecckt man die angeblich dafür am besten geeignete Geforce4Ti4600 in Rechner.

Macht dann zusammen ~1000 €

*lol*
 
Ti4200 oder Ti4400 auf Ti4600 Niveau zu übertakten ist ratsamer als ein Ti4600 zu kaufen...
 
Wie dem auch sei, widersprüchlich hin oder her, man könnte es auch einfach so sagen: Ich bin nVidia besessen oder einfach Enthusiast oder wie auch immer ihr dass nennen würdet und ich komme davon einfach nicht los! Nun gut, nachdem die GF4MX keine Vertex-Shader hat taugt dass ganze Design nichts, denn wer zahlt schon 250€ für eine Karte, die nichts besseres kann als eine Geforce2-Ultra! Ich finde es jedoch unverschämt von nVidia und den Herstellern, dass die Hardware so höllisch teuer ist. Nur leider gibt es eben ewig viele Leutz (so wie mich), die trotzdem kaufen, weil sie irgendwann mal in eine Art Mysterium gezogen wurden, dass die nicht mehr los lässt! Vielleicht ist diese Aussage besser zu verstehen!
 
[Zitat] Nur leider gibt es eben ewig viele Leutz (so wie mich), die trotzdem kaufen, weil sie irgendwann mal in eine Art Mysterium gezogen wurden, dass die nicht mehr los lässt! [Zitat]

Hmm, bei mir genügt ein Blick auf meinen Kontostand und dann sagt der mir: "Bleib bei deiner GF2 Pro" ;)

Ciao,
Andy
 
Zurück
Oben