Was wird uns die GeForce4 bringen ...

Grade auf http://www.nvnews.net/ gefunden!

3dmark2001.jpg


Oh mann........
 
Original erstellt von Bombwurzel
Ein Testergebnis einer GeForce4TI4600 ist HIER einzusehen.

Leider ist der Vergleich nicht gerade glücklich gewählt (P3@Win98 vs. P4@WinXP) aber ein Anhaltspunkt sollte damit gegeben sein.

Sieht irgendwie ziemlich identisch mit Bombers Link aus......

Tstststs.......
 
@AlfredENeumann

Also ich weis nicht, glaube dieser Screenshot "GF4Ti4600 vers. Radeon8500" ist ein Fake. Ich mein die Geforce4 hat enorme Taktraten (mehr als die Radeon8500) und eine 2te Vertex-Shader-Einheit.

Nochdazu läuft sie bei diesem Screenshot mit nem um einiges schnelleren System(CPU)

Das sie hier die Gf4Ti4600 im Vertex-Shader-Tests so stark unterliegt kann ich mir NICHT vorstellen, da ist doch echt was faul...

Übrigens schaf ich mit meiner Ti500 fast so viel Vertex-Shader-Points als die Ti4600 auf dem Screenshot - das stinkt mir gewaltig

Fake sag ich mal...
 
Zuletzt bearbeitet:
Reicht auch nicht? Wofür nicht?
Wieso werden hier nur 2/3 der Leistung des anderen 3DMark-Charts erreicht? VS-Leistung alleine liegt doch wohl nicht an der CPU, oder?

BTW, scheint auch Herr "Tommti-Systems" auf keinen Fall den Ruf der Radeon8500 ankratzen zu wollen....bei den Systemen kann man sich ja immer noch auf "War auch nur aufm Duron..." berufen.
 
...so nach dem Motto "Eine Geforce2 pro ist auf auf nem AthlonXp 2000+ besser als ne Geforce2 Ultra auf nem Ahtlon 1ghz"

Was das Vetrauen solcher Vergleiche betrifft warte ich lieber auf´m 6. Februar...
Laut den Geforce4-Details auf http://www.3dcenter.de/ halte ich es für sicher das die Geforce4Ti4600 die Radeon auch im Vertex-Shader Test schlagen wird, genau dieser Tests war bis jetzt immer eines der "Vorzeige-Benchmarks" der Radeon8500, sicher nicht zulätzt deswegen hat hier Nvidia mit seiner 2ten Vertex-Shader-Einheit Hand angelegt, und ich kann mir nicht vorstellen das das schief gegangen ist, von den unterstütztenden 330Mhz Chiptakt welcher jetzt grundlegend nochmal solche Berechnungen beschleunigt ganz abgesehn -->Die aufwendigen Pixel & Vertex-Shaderleistung steigt fast linear mit dem Gpu-Takt
 
Zuletzt bearbeitet:
Wenn nVidia wirklich verrückt genug ist, in der 4er-Reihe noch eine DX7-Karte anzubieten, dann verstehe ich den Sinn des Kyro2U auf einmal wesentlich besser. Wenn DX7 immer noch eine Arena darstellt, dann könnte PowerVR hier einen Sieg in der Nachspielzeit einfahren. ;)
Wobei ich ehrlich sagen muß, daß mit meinem originalen Kyro2 hier immer noch alles sehr schön läuft. Ich habe noch viel Zeit, bis eine neue GraKa ansteht...
 
Ist doch schön, das auf unseren Systemen noch so einiges läuft, man würde ja sonst keine Gedmittel mehr besitzen, wenn man alle paar Monate über eine Neuanschaffung nachdenken müsste...
Aber ob nVidia das klug gemacht hat, die 4er Reihe mit Dx7 Karten zu "vervollständigen"...
Waren nicht alle G3 Chips ausnahmslos DX8 Karten? Oder irre ich mich da? Ist doch unsinnig, das hält meiner Meinung nach die Entwicklung auf...:o
 
Hm...laut 3D-Center wird ja die GeForce4 MX vom nV17 bedient.

Dieser Chip ist in seiner mobilen Version schon vorgestellt worden.
http://developer.nvidia.com/docs/lo/1356/SUPP/PO_NV17M_12.pdf
Dort steht nix über Pixel- und Vertexshader.....

Außerdem vergleiche man mal die Nummerierung der Chips...kleiner Tip, der GF3 als erste DX8-Karte war die nV20....
 
Technische Daten:

Technische Daten der MSI G4MX440-VTD

Grafik-Chip
nVIDIA Geforce4 MX440

Grafikkern
NV17

Grafik-Architektur
256 bit

Herstellungsprozess
0.15 Micron

Chiptakt
270 MHz

Speichertakt
400 MHz

Speichergröße/-typ
64 MB DDR SDRAM

Speicher-Bandbreite
6,4 GB/Sec

Schnittstelle
AGP 4X

Lightspeed Memory Architecture
2te Generation

Vertex Pipelines
1

Direct X
DX 7/ DX 8

Pixel Shader
nein

Vertex Shader
ja

Shadow Buffer
ja

Environment mapping
Dual Cube

Bump mapping
Z-correct; Phong-style

DVD playback
HDTV, IDCT

Das sind die Daten aus der Pressemitteillung von MSI, die zu früh raus geschickt wurde.
Pixel nein, Vertex ja

Und jetzt ratet und spekuliert weiter... ;)
 
Re: @AlfredENeumann

Original erstellt von Prophet
Also ich weis nicht, glaube dieser Screenshot "GF4Ti4600 vers. Radeon8500" ist ein Fake. Fake sag ich mal...

Wie kann man nur so blind sein ? Wer lesen kann is klar im Vorteil !
Da steht doch die Compare-Url:
http://gamershq.madonion.com/compare2k1.shtml?2550927

Und jetz kannste ma guckn und weiter spekulieren ! Ich kanns nicht glauben wegen der Abweichungen, aber ner niedrig getakteten Karte würde ich's zutrauen.
 
Was wird uns die Gerforce4 bringen...

... mensch Bomber, das ist doch wohl klar, das Warten auf die ATI R300! :king:

... und natürlich nicht das Warten auf einen warmen Geldsegen, der uns die Karte bezahlbar macht.

... und vielleicht endlich einmal überzeugende Bild- und TV-Ausgabequalität. :freak: (Wer darauf hofft, der ist verlor'n ;) )

In diesem Sinne
Es lebe die Detonation, auf das wir uns wieder mit den Treiber beschäftigen dürfen. Da würde mir doch glatt was fehlen, wenns da von ATI nicht ähnlich viel Futter geben würde.

Ach eins vergaß ich noch: Bitte lieber 10Pkt weniger bei 3DMark als weiterhin 60Hz beim Zoggen - es sind doch nur ein paar RegistryEinträge. :(
 
Frohlocke mal lieber nicht zu früh, Prinz von Dänemark.....

Das Problem mit den 60Hz betrifft nicht nur nV sondern auch gewisse Karten von A**.... :evillol:
 
Was mich wundert ist, das die G4 in einigen Tests schlechter ist als die G3...
Warum? Von den technischen Daten müsste sie doch in allen Bereichen vorne liegen...
 
Ich denke mal das man erst mal abwarten sollte bis die Karte auch wirklich erhältlich ist. Und dann kann man solche Ergebnisse auch besser beurteilen. Zum anderen darf man auch nicht vergessen das die Karten da auf zwei unterschiedliche Systeme gebencht wurde. Das beeinflußt das Ergebnis natürlich auch. Am besten kann man sowas beurteilen wenn die Karten auf dem selben System gebencht werden.

JC
 
@ Carsten:

Weiss ich doch, war ja auch so gemeint, dass beide was daran tun sollten (oder doch eher MS?!). ;)
Hatte ja kurz davor von beiden gesprochen, ein bisserl unglücklich ausgedrückt. :D
 
Was mich überhaupt wundert ist das man auf zwei verschiedenen Systemen zwei Grakas gegeneinander antreten lässt... Da ist kein Vergleich möglich, das wäre als würde man einen Rennfahrer in einem Trabbi gegen eine Fahranfänger im Ferrari antreten lassen, welcher Fahrer ist besser? Also ich stimme JC-Denton zu, man sollte erst warten bis die G4 vorgestellt wird... Dann kann man sich wirklich ein genaues Bild machen...
 
Das war nicht so beabsichtig. Denn das eine System (My System) ist das System von Prophet. Wenn man sich die Daten bei Madonion von einem anderen User anzeigen läßt, dann wird auch automatisch das eigene System zum Vergleich herangezogen. So kommt der Vergleich zustande.

JC
 
Achso....... :p
 
Zurück
Oben