Wird die GF4MX in UT2003 alt aussehen?

Ich merke mir die Threads meistens nach Thema und nicht nach Namen, aber deinen Einwand kann ich nachvollziehen.
Allerdings - ist dein Gedächtnis so kurz, daß du den Thread erst wiedererkennst, wenn du deine eigenen Posts findest? :lol:

Na ja, ich verspreche, das nächste Mal schneller zu sein oder den Titel auch weniger zu verfremden. Dafür versprichst du mir aber, nicht mehr über *abgefahrene Züge* und *Deutschstunden* zu sprechen, in Ordnung? ;)
 
Zuletzt bearbeitet:
Original erstellt von HaPeLo
Weiss jemand konkret wann UT2 (z.Z. UT2003, bald vielleicht UT2007;)) erscheinen wird, und welche Grakas dann "Up-to-date" sind ?

Ja, hier ich, ich, ich :D:D:D

Die Demo soll noch im Mai kommen, das fertige Spiel gibts im August. Bis dahin fließt als noch etwas Wasser den Bach runter ;)
 
NVIDIA GeForce3 Ti 200 1024x768 : 55.5 fps
NVIDIA GeForce2 Ti 200 1024x768 : 37.8 fps
NVIDIA GeForce4 MX 460 1024x768 : 32.4 fps


In UT 2003 kommen erstmals in den Grafikszenen an die 100000 Polygone zum Einsatz, erstmal wird hier so richtig die ála 5000-Polygone pro Modell-Grenze stark überschritten : T&L entlastet zwar schon ab DirectX7-Karten die CPU damit die Geoemtrieberechnungen für diese vielen Polygone nicht eben die CPU übernehmen muss - DirectX8-fähige Karten profitieren hier aber in UT 2003 besonders stark und noch mehr :

Zitiere :

"DirectX 8.0 bringt neben der Unterstützung zusätzlicher 3D-Effekte wie den Point Sprites zur realistischen Darstellung von Regen oder Schnee sowie einigen Bugfixes die Neuerung der Vertex-Shader, die sich als am wesentlichsten erweisen dürfte. Mittels dieser Shader (Pixel Shader sind schon in DirectX7 enthalten) kann die Grafik-Hardware direkt programmiert werden. Der Vorteil liegt darin, dass die in einem Shader enthaltenen Befehle im Gegensatz zur wesentlich aufwendigeren Programmierung der Fließkommaeinheit der CPU mit nur ein paar Zeilen Programmcode auskommen und so bis zu 100mal schneller umgesetzt werden können. Zudem entfällt der bremsende Datentransfer zwischen Grafikkarte, Hauptspeicher und CPU, da die Shader-Befehle direkt im Grafikkartenspeicher umgesetzt werden"


Quelle und ganzer Artikel :
http://www.hardtecs4u.com/reviews/2001/directx7_vs_8/

Diese komplette DirectX8-Technoliege fehlt der GEforce4MX - deswegen wird sie so stark in auf DirectX8 ausgelegten und damit wohl auch zukünftigen Spielen so intensiv ausgebremmst.

WARUM SIE DANN ABER SOGAR LANGSAMER ALS EINE GEFORCE2Ti ist :

Die Erklärung hierfür ist das die Geforce2Ti 4 Renderpipelines hat und die Geforce4MX nur 2.

Bei in einem DirectX8-Spiel gleich schlechten Voraussetzungen(beide nur DirectX7-Fähig) verliert hier eben jene Karte welche zusätzlich noch schlechter gegen die vielen Polygone gerüstet ist und das ist in dem Fall die Geforce4MX

@Carsten, korrekt ? :D :)
 
Die Benchmark-Werte sind aber schon etwas merkwürdig - eine normale Geforce 3 vor der Radeon 8500???
 
Naja, ist auch eine ganz spezielle Grafikengine wie es sie zuvir wohl noch nie gab - damit scheinen einige Karten nicht gut zurecht zu kommen ?!
 
Neue GraKa..

NVIDIA GeForce3 Ti 200 1024x768 : 55.5 fps
NVIDIA GeForce2 Ti 200 1024x768 : 37.8 fps
NVIDIA GeForce4 MX 460 1024x768 : 32.4 fps
Aber 33fps ist nicht "alt aussehn" !! ;)
Der Beste Kompromiss zw. einer überteuerten GF3TI500 und einer (außreichenden) GF4MX460 ist wohl die (hoffentlich bald erscheinende:mad: ) GF4TI4200 - für nur ~200$ :). Nochmal zu den Bench-Werten oben: Mit welcher CPU ???

Gruß,
wauwau

Sie nicht können das Spiel nur für GF4TI4600'er Karten machen...
 
Zuletzt bearbeitet:
W. D. GF4MX i. UT2k3 a. a.s.?

Eine GF2TI200, noch nie gehört - wann kommt die?

Die gibz schon lang,bloß sagt das niemand.
Die offizielle Bezeichnung Nvidas lautet:GeForce 2 Titanium 200
Aber das 200 wird meistens weggelassen...

Also normalerweise müsste ja n' 800Mhz Prozzi 192MB RAM und ne GF2MX400 reichen um es auf minimum zu zocken :daumen:

Aber da bin ich ja schon dicke gerüstet!
 
Original erstellt von DjDino
NVIDIA GeForce3 Ti 200 1024x768 : 55.5 fps
NVIDIA GeForce2 Ti 200 1024x768 : 37.8 fps
NVIDIA GeForce4 MX 460 1024x768 : 32.4 fps


In UT 2003 kommen erstmals in den Grafikszenen an die 100000 Polygone zum Einsatz, erstmal wird hier so richtig die ála 5000-Polygone pro Modell-Grenze stark überschritten : T&L entlastet zwar schon ab DirectX7-Karten die CPU damit die Geoemtrieberechnungen für diese vielen Polygone nicht eben die CPU übernehmen muss - DirectX8-fähige Karten profitieren hier aber in UT 2003 besonders stark und noch mehr :

Zitiere :

"DirectX 8.0 bringt neben der Unterstützung zusätzlicher 3D-Effekte wie den Point Sprites zur realistischen Darstellung von Regen oder Schnee sowie einigen Bugfixes die Neuerung der Vertex-Shader, die sich als am wesentlichsten erweisen dürfte. Mittels dieser Shader (Pixel Shader sind schon in DirectX7 enthalten) kann die Grafik-Hardware direkt programmiert werden. Der Vorteil liegt darin, dass die in einem Shader enthaltenen Befehle im Gegensatz zur wesentlich aufwendigeren Programmierung der Fließkommaeinheit der CPU mit nur ein paar Zeilen Programmcode auskommen und so bis zu 100mal schneller umgesetzt werden können. Zudem entfällt der bremsende Datentransfer zwischen Grafikkarte, Hauptspeicher und CPU, da die Shader-Befehle direkt im Grafikkartenspeicher umgesetzt werden"


Quelle und ganzer Artikel :
http://www.hardtecs4u.com/reviews/2001/directx7_vs_8/

Diese komplette DirectX8-Technoliege fehlt der GEforce4MX - deswegen wird sie so stark in auf DirectX8 ausgelegten und damit wohl auch zukünftigen Spielen so intensiv ausgebremmst.

WARUM SIE DANN ABER SOGAR LANGSAMER ALS EINE GEFORCE2Ti ist :

Die Erklärung hierfür ist das die Geforce2Ti 4 Renderpipelines hat und die Geforce4MX nur 2.

Bei in einem DirectX8-Spiel gleich schlechten Voraussetzungen(beide nur DirectX7-Fähig) verliert hier eben jene Karte welche zusätzlich noch schlechter gegen die vielen Polygone gerüstet ist und das ist in dem Fall die Geforce4MX

@Carsten, korrekt ? :D :)

Eigentlich nicht :D
Die Erklärung, die Hardtecs4u zu DX8 abgab, mag ja noch ganz schlüssig sein, wenn wirklich alle Features genutzt werden. Aber das ist auch heute noch bei kaum einem Game und DX7 der Fall.

Aber die GF4MX sollte für große Polygonmengen mind. so gut gerüstet sein, wie die GF2TI, da sie einen höheren Core-Takt hat. Der Polygondurchsatz hat nichts mit den 4 Pipelines der GF2 zu tun; die sind Teil der Rendering-Einheit, des sog. Rasterizers, zu dem erst die schon verarbeiteten Geometriedaten gelangen.
 
Verstehe : Rasterizer weis ich schon was das ist, wieder was dazugelernt :)

Aber Nvidia kann ja nicht nur andauernd nur mit höheren Core-Takten agieren - ist ja brutal und find ich technologisch bisi arm :D
 
Heya Peops

nur ne frage zu der demo. bombwurzel du sagst die kommt im Mai. Kommt dann auch gleich die Demo für Mac? :D..Soll ja (zum Glück!!) auf OpenGL basieren und nicht auf dem blöden DirectX :D

So wie ich die spielebranche kenne denk ich dass sich wieder alles auf windows konzentriert und minderheiten benachteiligt werden..schade :D

Cya
 
Original erstellt von DjDino
Verstehe : Rasterizer weis ich schon was das ist, wieder was dazugelernt :)

Aber Nvidia kann ja nicht nur andauernd nur mit höheren Core-Takten agieren - ist ja brutal und find ich technologisch bisi arm :D

Vielleicht wird's der DX9-Chip ja richten. Mittlerweile hatten sie ja genug Zeit, die 3dfx-Gigapixel-Geschichte zu integrieren.


Ich bin mal auf weitere Vergleich gespannt, wenn auch andere Websites (wir :) ) den UT-Performance Test bekommen.....
 
Zurück
Oben