News CES: nVidia demonstriert PCI Express

butthead schrieb:
ok, also erstmal: so gut wie kein feature aktueller grafikkarten wird in der ersten generation ausgenutzt - wie in diesem artikel beschrieben haben die damaligen chips das feature einfach schlecht oder gar nicht ausgenutzt. d.h. aber nicht, dass das feature sinnlos ist - vor allem als wegbereiter für programmierbare vertexshader war es unbedingt notwendig, damit die programmierer anfangen, die vertexdaten VOR der transformation an die GPU zu schicken.
Es ging aber nunmal um das Hardware T&L welches in DirectX 7 spezifiziert war. Und warum brauchte man einen Wegbereiter für programmierbare Vertexshader? Wie auch im Artikel beschrieben, hat nVidia am falschen Ende angesetzt. Der Flaschenhals war nicht die Dreiecksleistung der CPU. Speicherbandbreite und Füllrate waren (und sind meiner Meinung nach immer noch) eher das Problem. Ich spiel auf meiner Gf4 kein Spiel mit AA oder AF... Aber locker mit höchsten Geometriedetails. Auch im Artikel erwähnt wird eine weitaus effektivere Methode zur Steigerung der Polygonleistung: die Vermeidung des Dreiecksbasierten Overdraws. Aber soetwas scheint nVidia bis jetzt wenig zu kümmern. Gleichzeitig ignorieren sie die mit 3dfx aufgekauften Technologien, die den ihrigen weit voraus waren und teilweise noch sind, was mir absolut unerklärlich ist.
 
naja, damit bist du aber inzwischen eher in der Minderheit. Jeder, der eine neuere ATI-Karte besitzt (so wie ich) spielt inzwischen ALLE Spiele mit AA & AF, weil es praktisch überhaupt keine Geschwindigkeitseinbussen mehr gibt (Bei cleverer Architektur).
Und natürlich spielst du inzwischen alle Spiele mit höchsten Geometriedetails, eben WEIL inzwischen die Geometriedaten nur 1x an die GPU geschickt und dort transformiert werden und nicht jeden Frame neu von der CPU gesendet werden müssen. Und genau diese Zeit hat Hardware T & L eingeläutet - du tust hier so als gäbe es eh genug Leistung OHNE Hardware T&L, vergisst aber, dass deine Karte den größten Vorteil, den Hardware T&L gebracht hat, ausnützt, um diese Leistung zu bringen.
Hab mir inzwischen die Mühe gemacht und den 3dcenter-Artikel ganz gelesen, und er ist wirklich noch schlechter, als ich gedacht habe. Da werden so viele Dinge behauptet, die schlicht und einfach nicht wahr sind und die jeder weiss, der selbst auf GPUs entwickelt. Denke schön langsam ich sollte mal eine eMail an die Authoren schreiben, ich finde es wirklich etwas komisch, mit welcher selbstsicherheit dort die persönlichen meinungen und spekulationen der authoren als fakten unters volk gebracht werden.
Offensichtlich bin ich mit dieser Meinung aber auch nicht allein, denn die Nachträge wegen der Publikumsreaktionen sprechen auch Bände - hier schafft es der Autor wirklich nicht mehr, die sinnlosigkeit von T&L auch weiterhin zu untermauern und flüchtet sich in wildeste spekulationen, die auch dem laien zeigen, dass hier kein fundiertes grundwissen vorhanden ist.
Die Moral davon ist: Nicht alles blind glauben, was im Internet so geschrieben wird - nicht jeder angebliche Experte ist auch wirklich ein solcher.
Was 3dfx betrifft - auch dieser Teil des Artikels ist sehr übertrieben. 3dfx hat damals einige innovative Technologien geschaffen, aber genausoviele fundamentale Fehler gemacht. Viele der Behauptungen und Schlussfolgerungen sind auch hier wieder falsch. Und spätestens seit dem GeforceFX-Desaster (denn die stammt von dem ehemaligen 3dfx-Team) ist allen klar, dass dieses Team wie schon damals nicht besonders gut darin ist, Zukunftstrends vorauszusagen und auf die richtigen Technologien zu setzen, denn sie haben sich gleich mehrfach verspekuliert (128bit Speicherbandbreite, 13um-Fertigung, Lüftung, etc.).
Und der heilige Gral der Computergraphik war der T-Buffer auch nicht, inzwischen ist z.B. ATI mit aktuellen Karten dem in so ziemlich jeder Hinsicht überlegen (auch beim Anti Aliasing, der T-Buffer Paradedisziplin!). Es gibt also keinen Grund, jetzt noch den 3dfx-Technologien nachzutrauern.
 
Dass die GeForceFX von den ehemaligen 3dfx-Entwicklern stammt ist ein Gerücht, welches nie von nVidia bestätigt wurde. Wahrscheinlich ist es einfach aus dem Namen "FX" entstanden und war wohl auch nicht sonderlich unbeabsichtigt von nVidia.
Das Antialiasing von 3dfx gibt es bisher nicht in der Qualität und Performance in einem anderen Produkt. Bei 3dfx wurden nicht nur die Polygonkanten geglättet, sondern auch die Texturen. Also nicht nur ausgewählte Pixel, sondern alle.
 
1. Dass die GeForceFX von einem Team stammt, dass sich zum Großteil aus den ehemaligen 3dfx-Entwicklern zusammensetzt, ist offiziell (und wurde auch von nVidia im Nachhinein als Fehler genannt, dass man das ganz neue Team gleich an so eine wichtige Karte drangelassen hat).
2. Bei derzeitigen Antialiasing-Verfahren werden IMMER alle Pixel geglättet und NICHT nur die Kanten, genau das macht ja so oft die Probleme im Zusammenhang mit AF (bitte nachlesen, einfach Supersampling/Multisampling in Google eintippen und schauen, wie's funktioniert). Die einzige Karte, die nur selektiv die Kanten glätten kann, ist die Matrox Parhelia, und die habens leider nicht geschafft, dass das ganze im Treiber so hinzubekommen, dass dann irgendwann fehlerfrei funktioniert und auch alle Kanten richtig erkennt.
3. Die 3dfx-Methode war im Grunde nichts anderes als Rotating Grid Multisampling, und das hast du inzwischen in jeder ATI-Karte, nur mit besserem Grid und gammakorrigiert (was einen deutlichen Unterschied macht), wodurch die ATI-Karten inzwischen sehr wohl bessere Qualität haben als die alten 3dfx-Karten. (Auch das findest du wirklich zig-fach im Internet, gib einfach "ATI Rotating Grid" an und schau dir den vergleich der verschiedenen Muster und der resultierenden Qualität an und schau dir mal genau an, wie 3dfx es damals gemacht haben - aber bitte nicht auf 3d-center :).

Ich weiss wirklich nicht, woher du all diese Informationen hast, aber der Nachdruck, mit dem du sie hier postest, macht sie nicht richtiger.

btw., soll alles kein persönlicher angriff sondern wirklich nur eine faktische richtigstellung sein, da mich seiten wie 3dcenter teilweise echt aufregen :)
(besuch sie aber trotzdem regelmässig, weil sie hin und wieder auch wirklich interessante und gute artikel haben)
 
Supersampling antialiased tatsächlich auch die Texturen.
Multisampling aber nicht.

btw: meine Informationen habe ich aus dem Internet. ;) Da du keine Quellen angibst um sie zu widerlegen soll ich auf dein Wort vertrauen? Sorry, muss nicht sein. :rolleyes:
 
Zuletzt bearbeitet:
ok lies dir das mal durch, danach sollte antialiasing generell mal klar sein:

http://www.nvidia.com/attach/151

wie du an den ergebnisbildern auch sehr gut sehen kannst, werden bei mulisampling sehr wohl die texturen gefiltert, nur werden keine zusätzlichen textur-samples genommen, was bei Anisotroper Filterung auch überhaupt nicth notwendig sondern eher hinderlich ist (das oft zitierte problem bei supersampling und AF).

Das einzige, was in diesem Paper nicht ganz stimmt, ist die überlegenheit von Quincunx - da sind die aktuellen ATI-Grids bessser.

hoffe, das beantwortet die meisten fragen...
 
Hab ich schon mal gelesen. Da nur ein Textursample pro Pixel verwendet wird, kann es doch gar nicht Antialiased werden. Hab auch Vergleichsscreenshots gemacht. Die Texturen sehen haargenau gleich aus. Die Polygonkanten sind Antialiased.
 
schau dir in dem angegebenen pdf einfach mal in dem ersten vergleichsbild den dunklen bereich ganz genau an, dann siehst du den unterschied mitten im polygon ganz klar (1 textursample aber trotzdem 5 subsamples vs. 1 subsample - der reconstruction kernel macht den unterschied, weshalb das grid so wichtig ist).
wenn dus dir mathematisch durchüberlegst, wird es dir klar, wo der unterschied liegt, ist allerdings etwas aufwand (transformation für die subpixel nachrechnen).
hauptgrund warum ich meine quellen nicht angegeben habe, ist der, dass du vermutlich wenig lust hast, dir ein paar tausend seiten spezifikationen oder white papers von nvidia und ATI durchzulesen (ausser du bist selbst auch entwickler, klingt aber nicht so).
 
ehrlich gesagt, seh ich da keinen Unterschied außer dem, dass die Screenshots in unterschiedlichem Blickwinkel gemacht wurden, also schlecht verglichen werden können.
 
Zurück
Oben