Vodoo 5 6000 todgeburt?

____________________________________________________
original erstellt von Tony_G:

es geht das gerücht um das ehemalige mitarbeiter von 3dFX eine neue firma gründen wollen, das hab ich bei Golem gelesen ist aber schon länger her also verlasst euch net drauf!
____________________________________________________
die ex-mitarbeiter wollten keine neue firma, sondern sind zu 3d-Power gegangen um einen neuen chip - ähnlich dem von 3dfx geplanten "Rampage zu fertigen.
Q&A zu einem ex-3dfx-ler:
http://www.pcrave.com/news/week.htm?id=1429#1429
 
Verstehe ich schon

@Moonstone
Mein Post war bewußt etwas pointiert, aber ich dachte mir schon, was du meinst. Wenn du es dir so gedacht hast, wie Tommy es sagte, kann man es so stehenlassen. Versteh das aber nicht als Freikarte, T&L jetzt zur alleinseligmachenden Technik zu küren. Ich habe eine T&L-freie Karte in Verbindung mit einer relativ langsamen CPU - und über Mängel in der Performance kann ich mich nicht beschweren.
 
In einem Jahr wird es wohl keine Karten mehr ohne T&L geben. Eigentlich sind der Kyro Chip und der neue Matrox G550 die einzigen Grafikchips ohne T&L. Diese Technik wird zum Standard und bald spricht keiner mehr davon. Dann kann man wieder über andere Features diskutieren, die die nächsten Grafikkartengenerationen haben werden.
 
Original erstellt von Moonstone
In einem Jahr wird es wohl keine Karten mehr ohne T&L geben. Eigentlich sind der Kyro Chip und der neue Matrox G550 die einzigen Grafikchips ohne T&L. Diese Technik wird zum Standard und bald spricht keiner mehr davon. Dann kann man wieder über andere Features diskutieren, die die nächsten Grafikkartengenerationen haben werden.

Ich verstehe ehrlich nicht gesagt, wozu eine Matrox G550 ne T&L Einheit bräuchte? Das ist eine Karte für den Business und Workstationbereich, was hat da T&L zu suchen?
Und komisch ist ja auch, das die Kyro2 trotz fehlender T&L Einheit bei QuakeIII schneller ist als eine Geforce2MX ;)
Und wenn diese Technik zum Standard werden würde, warum unterstützen dann nicht alle Spiele T&L? Die Technik ist doch schon seit über anderthalb Jahren auf dem Markt...
Und genauso ist es mit der neuen Technik, solange immer neue Standards herauskommen und nicht die Leistung der vorhanden Standards nicht optimiert wird und die Spielentwickler deswegen nicht hinterherkommen, was hilft einem da der Standard?
 
Original erstellt von KPV
Und komisch ist ja auch, das die Kyro2 trotz fehlender T&L Einheit bei QuakeIII schneller ist als eine Geforce2MX ;)

Der Kyro II ist nur dann schneller als der GeForce2 MX, wenn die T&L Einheit nicht verwendet wird.
 
Beweise!

Quake3 verwendet nun mal T&L und daran ist nicht zu rütteln, das die Geforce2 MX (mit T&L Unterstützung) dort, langsamer ist, als die Kyro2, die nun mal kein T&L kann.
Ich weiss ehrlich nicht, wo Du diesen Schrott her hast?
Sicher eine Kyro2 brauch genügend Rechenpower, umd die fehlende T&L Einheit auszugeleichen.
ich fände es ausserdem mal recht praktisch wenn Du Fragen beantworten würdest und nicht irgendwelche Behauptungen aufstellen würdest...
 
Ihr vergesst eins zu erwähnen: Die GeForce2 MX ist erst in höheren Auflösungen, für die sie eigentlich nicht konzipiert ist, langsamer als die Kyro. Bei 640*480 und ich glaube auch bei 800*600 ist die GeForce2 MX bei Quake III schneller. Gehen wir mal von einem 800MHz Rechner aus.
 
Qualität

Kyro ist ein Chip für Genießer. Bei mir sind 1024x768x32 die absolute Schmerzgrenze nach unten! Erst 1280x1024x32 ist bei mir salonfähig. Und das Ganze auf einem *schwachen* Duron650, der kann dem Kyro nicht so gewaltig unter die Arme greifen. Ich brauche kein T&L und ich will es auch nicht, da es nur bis 800x600 wirklich nützt. So spiele ich nie!
 
Vielleicht sind meine Augen, von denen ich immer dachte, sie seien ausgezeichnet, auch nicht mehr das gelbe vom Ei. Aber wenn ich Quake III Spiele, dann kann ich keinen Unterschied mehr zwischen 1024*768, 1280*1024 oder gar 1600*1200 erkennen.
 
dann brauchst man tatsächlich eine Brille

..wenn man die Unterschiede zwischen den einzelnen Auflösungen nicht mehr sieht, oder aber einen besseren Monitor..
Ebenfalls bei mir sind 1024x768x32 auch untere Schmerzgrenze und wenn ich darunter spielen wollte so bräuchte ich keine gf2ultra und keine Geforce3, sondern hätte mir sicherlich eine MX, Radeon oder Kyro (die aber gerade in hohen Auflösungen spitze ist, aber des Preises wegen!) zugelegt, bei denen reicht nämlich die Performance für diese Auflösungen zum größten Teil voll und ganz aus.
 
Zuletzt bearbeitet:
Du kannst dir keinen Unterschied zwischen 1024x768 und 1600x1200 erkennen? Kauf dir mal´ne Grafikkarte mit einem besseren Bildsignal.
Ausserdem, was nützt es einem, wenn die GeForce2MX doch schneller ist in einer Auflösung bei 640x480 bzw. auch 800x600 als eine Kyro?
Wer zockt denn schon noch bei solchen niedrigen Auflösungen?
 
Bei einem sich schnell bewegenden Bild erkenne ich wirklich keinen Unterschied zwischen 1024*768. Und ich gehe mal stark davon aus, dass es dem meisten Computeranwendern genauso geht. Vielleicht bin ich auch kein richtiger Freak, um sowas zu erkennen.
 
na dann biste echt kein Freak

also normalerweise sieht den Unterschied jeder, ob schnelle Bewegung oder nicht, es gibt aber durchaus Leute die merken keine Unterschiede, weil Z.B die Augen zu träge sind- das ist kein Witz!
Aber ein normal gesunder Mensch sieht das auf Anhieb, der ständig am PC arbeitet (obwohl das ja auch nicht gerade gesund ist)..
 
Wenn ich ganz normal mit dem Windows Desktop arbeite oder im Internet surfe, dann sehe ich den Unterschied zwischen den verschiedenen Auflösungen sofort. Aber wenn ich jetzt bspw. Quake III spiele, dann merke ich echt keinen Unterschied, ob das jetzt 1024*768 oder 1600*1200 Bildpunkte sind. Höchtens, wenn das Bild mal steht, dann erkennt man es etwas an den Kanten.
 
Na denn

sind deine Augen vielleicht echt etwas zu träge......
 
Also ich habe meine Augen checken lassen, sind absolut in Ordnung. Heute waren ein paar meiner Kumpels da und wir haben das mit den unterschiedlichen Auflösungen ausprobiert. Keiner konnte da einen "echten" Unterschied zwischen 1024*768, 1152*864, 1280*960, 1280*1024 und 1600*1200 feststellen. Und das obwohl wir das ganze auf einem hochwertigen 19 Zoll Nokia Monitor ausprobiert haben.
 
Hehe

Dann habt ihr vielleicht alle was mit den Augen :D ;) ich kann die gerne mal paar screenshots in den unterschiedlichen Auflösungen machen, vielleicht siehst du es dann? Kommt aber auch immer ganz auf das Spiel drauf an wie gut man das erkennt.
 
Zurück
Oben