News GeForce FX Benchmarks

Wer hat geschrieben das Nvidia konkurenz hat!!!
Die musste mir aber erst mal zeigen
Nvidia kontrolliert doch alles ATI ist keine konkurrenz
sondern nur eine firma die sich die patente von nvidia kauft
mehr kann ATI nicht guckt euch doch mal diese ganzen scheiss patente an von wem sind die denn alle Nvidia und keinem anderen!!! ok ATI benutzt jetzt schon ein 256 bit speicheranbindung super toll matrox hat eine 512 bit speicheranbindung und was bringt es nicht im 3d bereich im 2d bereich ist die matrox dagegen unschlagbar was soll das ganze also!!!
Aber ATI ist konkurrenz für nvidia klar ati lebt zwar davon das nvidia an ati patente verkauft weil ati ´kaum was selber entwickeln darf!!! (wegen den patenten)
 
439€ schauen doch bedeutend humaner aus als die 700€ horror meldung von vor einer woche..... .
für mich kommt die fx eh nicht in betracht (meine gf4 langt mir noch). aber es zeigt doch deutlich das nvidia mit dem preis nicht weit von ati weg ist. was dem absatz an high end spinner ;) gut tut.
 
lol, ich hätte von der gfx deutlich mehr leistung erwartet...und zu dem Preis kauft die Karte sowieso niemand (außer ein paar-nvidia freaks). da hol ich mir lieber ne 9500 für 200€ flash zu ner 9700pro, die dann noch auf 380mhz gpu übertakten und die karte ist schneller als ne gfx.
 
ATi > Nvidia
Intel > Amd

ich wusste schon, warum ich mir ne radeon und nen damals neuen p4 1.6 geholt habe :)
obwohl intel und ati ja mehr die aussenseiter waren, alle wollten lieber die ach so tollen AMD XPs und die dicken Gforce4600. tja, wenn man den tatsachen nicht ins auge schaut und lieber in seiner scheinwelt lebt, selber schuld :>
 
leute, bleibt sachlich, bitte! :-)

intel und amd, jede firma hat ihre daseinsberechtigung. ausserdem wären die preise ultra hoch, wenn wir keine konkurrenz auf dem markt haetten! monopole sucken...siehe m$soft!
 
so einen quatsch, wenn ich schon les: "wer braucht schon 200fps?"!
ich hab mit meinem 1,4 GHz Thunderbird und Geforce TI4400 gerade mal zwischen 20 und 30fps, mit meiner nächsten CPU(Clawhammer 3100+) vielleicht zwischen 40 und 60fps!!
dann isses grad spielbar auf 1024er auflösung mit höchsten details, aber noch lang keine 200fps, selbst mit ner geforce FX net, die Flyby-Benchmarks kannste sowieso vergessen, sagen eh nix über spielperformance aus!
 
Also ich denke das die Treiber der G FX noch in den Kinderschuhen stecken. Grund:

Als ich mir "damals" meine Geforce 2 GTS zugelegt habe, habe ich beim 3D Mark 2k1 beim ersten Polygon-Test gerade mal 9 Millionen Poly/s geschafft. Erst mit späteren Treibern liefen alle Tests vernünftig, und ich hatte dann auch 20 Mio poly/s.

Aber alles in allem ist die FX viel zu teuer, auf die RAdeon ist na nu nicht grad billig. Mehr als 150€ für ne GraKa sind einfach unlogisch, finde ich, da gefällt mir der S3 DeltaChrome mit DX9 und Shadern 2.0+ für nur 100€ am besten. Ich wart erstmal den ab.
Und für den Großteil von uns der eh ständig nur CS im Netz zockt, wer bracuht dann schon so ne Grafikkarte.
Meine besagte GF2 GTS hab ich immernoch, und alle Spiele laufen drauf, zwar die neueren Splinter Cell und UT2k3 net mehr ganz so toll (30 fps mit vollen Details), aber deswegen geb ich doch nix für ne neue GraKa aus.

Vielleicht kommt bald ma ne 9500 bei mir rein(wenn Doom3 kommt), wenn die noch im Preis fällt, aber holt ihr euch nur die High End Karten und steckt denn Riesen euer Geld in den Rachen, ich fahr davon lieber in den Urlaub, hab schliesslich hart dafür gearbeitet!
 
du hast überhaupt keine Ahnung...früher war nvidia ein kleiner zwerg und ati der merktführer, und es hat sich beinahe umgedreht in den letzten jahren - kurz bevor ati aber endgültig das schicksal von 3dfx erleiden hätte müssen, haben sie das ruder nochmal herumgezogen...
patente von nvidia verwendet ati kein einziges...
 
Ja also wer den Bericht bei Tomshardware.de gelesen hat weis was es geschlagen hat wenn sich nvidia nicht schnell noch was einfallen lässt sind die genau so schnell weg vom fenster wie 3DFX (Rulez) Für 500 € werde ich mir bestimmt keinen Föhn kaufen.

Gruß Zock
 
Wartet bis DirectX9 ´Wirklich notwendig ist . Das ist erst so in 6 oder 12 Monaten soweit . Dann gibts bessere DX9 beschleuniger .
 
@Zock: du scheinst nicht zu wissen, dass Nvidia neben Graphic cards neuerdings erfolgreich mainboardchipsätze(nForce) rausbringt und z.B. mit den Ti4200er modellen reichlich Umsatzl gemacht hat. Ausserdem entwickelte nVidia die graphics-language Cg, im treiber-development sind sie sowieso ungeschlagen...ati hat nicht so viele programmierer, die gleich ne neue programmiersprache für shader etc. einführen und daran tüfteln;
 
update: will damit sagen, solange nVidia halbwegs konkurrenzfähige Produkte rausbringt(haben sich ja genug bei herstellern etc. eingekauft), gehen die net so schnell pleite, dazu gute PR und lowcostchip(NV31/34) erwartet uns auch noch!
 
der Bericht bei tomshardware ist Nvidia noch zu gnaedig. es gibt keinen EINZIGEN screenshot zu finden! Also kann man nicht sehen wie wirklich beschissen Nvidias 2xFSAA arbeitet, oder wie, unter anderem, Nvidias 8XS FSAA vielmehr mit ATI's 4XFSAA vergleichbar ist, wenn ueberhaupt.
eins konnte (oder wollte) tomshardware nicht verschweigen: die lautstaerke dieses super-innovativen dampfblasers. man kann sich die mp3 downloaden um sich mal ein "bild" davon zu machen:
http://www.de.tomshardware.com/graphic/20030127/geforce_fx-06.html
 
aus meiner Erfahrung heraus sag ich einfach mal das Nvidia und AMD ein Spitzen Kombination sind!!!
NForce2 + AthlonXP2400+ und ne GeForce4Ti4200 werkeln bei mir im System und von Problemen fehlt jede Spur, auch meine nächste Graka kommt von Nvidia genau wie mein nächster Prozessor ein AMD ist. da weiß ich was ich hab. achja me als Kühlfreak findet den FlowFX Kühler einfach nur goil!!!
und lauter als mein restliches System kann er ja fast gar nicht mehr sein!!! wenn mir jmd. die 440€ für ne FX schenkt würd ich sie mir sofort ins system knallen!!!
 
zock

du bist witzig nvidia weg vom fenster du bist echt witzig
du hasst anscheinend nicht viel ahnung aber egal
genauso wie der der mir zurück geschrieben hat ati verwendet sehr wohl patente von nvidia
aber ist ja egal
wie du meinst glaub du lieber dran das ati keine patente
benutzt.
lol lol lol wie du meinst
 
Zurück
Oben