ATIs Filtertricks

Original erstellt von TheShaft
Eigentlich haste meinen gesamten Post falsch interpretiert...
Naja - die Kernaussage meines Posts war eigentlich ,dass es immer eine Auslegungssache sein wird, wann Optimierungen gut sind und wann schlecht...
Das einzige was 100% sicher ist, ist zwischen "optimiert" und "nicht-optimiert" zu unterscheiden...
Optimiert wohin (bzw worauf?) Auf Leistung? Dann landen wir letztlich bei 16-Bit-Rendering mit Point Sampling... Es gibt, das ist im Artikel eigentlich angesprochen worden, gewisse Richtlinien, an die man sich halten kann. 8 Bit LOD-Fraction zum Beispiel wird im OpenGL-Profi-Segment genutzt. Offenbar ist das in jedem Fall gut genug. (Wir reden hier ja nicht von Zockern sondern vom Einsatz in der Industrie, mit den Dingern wird gearbeitet und Geld verdient...)

Anderes Beispiel: Trilineare Filterung ansich ist suboptimal, aber exakt definiert. Nvidias "brilinear" hält die Definition nicht ein, das ist kein Trilinear. Punkte und Ende.

Was ATIs bilineare Filterung angeht, findest du die R300 (bzw. R350-) Screenshots im Artikel nicht schlecht? Imo gehen sie hier eindeutig zu weit mit dem Transistor sparen.
 
Zuletzt bearbeitet:
Ich mein, dass ist jetzt natürlich Zukunftsgeplänkel, aber welche Ansichten werden die Hersteller in Zukunft weiterverfolgen? "Echtes" TriAF, auch hardwareseitig oder wird es immer mehr in die Richtung "Brilinear" + diverse andere Methoden der Optimierung gehen, nur damit man mehr "Leistung" bekommt, die BQ aber weiterhin nicht, ich sag mal, "lehrbuchhaft" dargestellt wird?
 
Original erstellt von aths
Optimiert wohin (bzw worauf?) Auf Leistung?

worauf kann man den sonst optimieren ? Wenn man von maximaler IQ ausgeht, kann erhöhte Leistung nur auf Kosten der IQ gehen...

Original erstellt von aths
Was ATIs bilineare Filterung angeht, findest du die R300 (bzw. R350-) Screenshots im Artikel nicht schlecht? Imo gehen sie hier eindeutig zu weit mit dem Transistor sparen.

Ich finde, dass es immer Auslegungssache bleiben wird, was schlecht und was gut ist - was ich auch bereits 2mal geschrieben habe (bzw es so verstanden haben wollte)...
 
Original erstellt von Riptor
Ich mein, dass ist jetzt natürlich Zukunftsgeplänkel, aber welche Ansichten werden die Hersteller in Zukunft weiterverfolgen? "Echtes" TriAF, auch hardwareseitig oder wird es immer mehr in die Richtung "Brilinear" + diverse andere Methoden der Optimierung gehen, nur damit man mehr "Leistung" bekommt, die BQ aber weiterhin nicht, ich sag mal, "lehrbuchhaft" dargestellt wird?
Früher oder später wird man wohl zu "single clock TF" gelangen. Man kann nämlich auch aus einer MIP-Map trilinear filtern, allerdings braucht man dann 16 Texel (statt 2x4 wie mit herkömmlichem TF.)



Original erstellt von TheShaft
worauf kann man den sonst optimieren ? Wenn man von maximaler IQ ausgeht, kann erhöhte Leistung nur auf Kosten der IQ gehen...
Siehe obigen Teil :), man kann auch einfach mit zusätzlichen Transistoren die Leistung erhöhen, ohne Kompromisse in der Bildqualität. (Watt'n Wunder :)) Klar ist man bei den Transistoren von der Zahl her begrenzt. Ich sehe aber nicht ein, warum man gerade bei den Filtern krampfhaft sparen sollte...

Original erstellt von TheShaft
Ich finde, dass es immer Auslegungssache bleiben wird, was schlecht und was gut ist - was ich auch bereits 2mal geschrieben habe (bzw es so verstanden haben wollte)...
Auch ich habe mehrfach geschrieben, dass es bewährte Kriterien gibt. Wenn du was auslegen willst, warum wirst du nicht konkreter und legst z.B. die gängigen Algorithmen aus? Imo redest du hier nur allgemein herum, ohne Details zu kennen.

Du hast btw noch immer nichts dazu gesagt, ob du die BF-Bilder der Radeon im Artikel in Ordnung findest :)
 
Zuletzt bearbeitet:
Original erstellt von aths
Optimiert wohin (bzw worauf?) Auf Leistung? Dann landen wir letztlich bei 16-Bit-Rendering mit Point Sampling...

Naja, zu einer Reise in die Vergangenheit wird es wohl kaum kommen ;)

Original erstellt von aths
Es gibt, das ist im Artikel eigentlich angesprochen worden, gewisse Richtlinien, an die man sich halten kann. 8 Bit LOD-Fraction zum Beispiel wird im OpenGL-Profi-Segment genutzt. Offenbar ist das in jedem Fall gut genug. (Wir reden hier ja nicht von Zockern sondern vom Einsatz in der Industrie, mit den Dingern wird gearbeitet und Geld verdient...)

Wenn 5Bit in Direct3D dem Referenz-Rasterizer entsprechen und damit "ausreichend" sind, wieso sind sie es dann in OpenGL nicht ? :/
Klar 8Bit sind 8mal genauer als 5Bit, aber nVidia hat wohl mit zusätzlichen Blick auf den Opengl-Profi-Markt entwickelt, ATi eher nicht , weshalb sie wohl auch deutlich weniger Marktanteile im Opengl-Profi-Markt haben...


Original erstellt von aths
Was ATIs bilineare Filterung angeht, findest du die R300 (bzw. R350-) Screenshots im Artikel nicht schlecht?

Doch die Bilder sind schlecht, keine Frage...

Original erstellt von aths
Siehe obigen Teil :), man kann auch einfach mit zusätzlichen Transistoren die Leistung erhöhen, ohne Kompromisse in der Bildqualität. (Watt'n Wunder :)) Klar ist man bei den Transistoren von der Zahl her begrenzt. Ich sehe aber nicht ein, warum man gerade bei den Filtern krampfhaft sparen sollte...

Man hat ja nichtnur dort gesparrt, man hat ja auch die TruForm Einheit "rausgespart"...
Und eine zweite Textureinheit bei den Pixelpipelines fehlt ja auch...
Man kann sicherlich behaupten, dass ATi bei den Filtern übers Ziel hinausgeschossen ist, aber zu behaupten, dass nur bei den Filtern gesparrt wurde ist nur die halbe Wahrheit...

Man muss sich fragen (bzw ich frage mich ;) ) ob es Sinn macht, dass die gelangweilte "3d-Elite" über etwas diskutiert, was 99,9% der User überhaupt nicht auffällt/interessiert - nein, ich will ATis vorgehen nicht schönreden, aber man sollte keinen Weltuntergang daraus machen...

BTW wieviele Transistoren hat sich nvidia dadurch eingespart, dass sie beim 4x FSAA nur ein Ordered Grid verwenden und dadurch bei deutlich schlechterer Leistung keine bessere IQ erzielen als mit 2x FSAA ?
"Die Framerate ist nur eine Seite der Medallie, gerechterweise müsste in das Benchmark-Ergebnis auch die Bildqualität einfließen." ;)

greetz shaft
 
Original erstellt von TheShaft
Naja, zu einer Reise in die Vergangenheit wird es wohl kaum kommen ;)
Naja. Nvidia bietet in den FXen in D3D standardmäßig nur noch "brilinear" statt trilinear an (das ist BQ-mäßig ein Rückschritt.) In ATIs Produktlinie hat sich zwar nichts verschlechtert, aber sie erreichen teilweise nicht man den Stand Anno 2000, wo GF-Karten "quasi-perfekt" isotrop und 2x anisotrop filtern...

Original erstellt von TheShaft
Wenn 5Bit in Direct3D dem Referenz-Rasterizer entsprechen und damit "ausreichend" sind, wieso sind sie es dann in OpenGL nicht ? :/
Es könnte ja sein, dass MS mit Rücksicht auf ATI den REF-Rast auf 5 Bit LOD-Fraction begrenzte... ich sehe jedenfalls keine Möglichkeit, das Software-Rendering zu verschnellern wenn man 5 statt 8 Bit nimmt.

Original erstellt von TheShaft
Doch die Bilder sind schlecht, keine Frage...
Und eben darum ging es im Artikel :)

Original erstellt von TheShaft
Man hat ja nichtnur dort gesparrt, man hat ja auch die TruForm Einheit "rausgespart"...
Und eine zweite Textureinheit bei den Pixelpipelines fehlt ja auch...
Die "fehlt" nicht. R300 hat 8 TMUs, NV30 hat 8 TMUs... sobald man besser als bilinear filtert, ist es füllratenmäßig egal, ob 8x1 oder 4x2.

Original erstellt von TheShaft
Man kann sicherlich behaupten, dass ATi bei den Filtern übers Ziel hinausgeschossen ist, aber zu behaupten, dass nur bei den Filtern gesparrt wurde ist nur die halbe Wahrheit...
Das wird ja auch nicht behauptet.

Original erstellt von TheShaft
Man muss sich fragen (bzw ich frage mich ;) ) ob es Sinn macht, dass die gelangweilte "3d-Elite" über etwas diskutiert, was 99,9% der User überhaupt nicht auffällt/interessiert - nein, ich will ATis vorgehen nicht schönreden, aber man sollte keinen Weltuntergang daraus machen...
Na erst mal gehöre ich nicht zur Elite, und weder sind ich, noch die Elite gelangweilt :) Der "normale" User hat vom Wissen her gar nicht die Möglichkeiten, den IHVs auf die Finger zu schauen. Deshalb machen wir das :) (Man muss nicht zur Elite gehören, aber natürlich einiges Grundwissen haben und vor allem den Willen, die Wahrheit herauszufinden ohne darauf zu achten wem es nützen oder schaden könnte.)

Original erstellt von TheShaft
BTW wieviele Transistoren hat sich nvidia dadurch eingespart, dass sie beim 4x FSAA nur ein Ordered Grid verwenden und dadurch bei deutlich schlechterer Leistung keine bessere IQ erzielen als mit 2x FSAA ?
Natürlich hat man mit 4x OG bessere Qualität als mit 2x RG. Man hat natürlich auch weniger bessere Qualität als mit 4x RG. Nvidia hat nicht nur Transistoren, auch Entwicklungszeit gespart. Ich wage fast zu behaupten, dass der Grund vor allem hier zu suchen ist, wenn man sich fragt, wieso NV noch immer auf dieses alte AA-Subsystem setzt.

Original erstellt von TheShaft
"Die Framerate ist nur eine Seite der Medallie, gerechterweise müsste in das Benchmark-Ergebnis auch die Bildqualität einfließen." ;)
Genau. Nur kann man schlecht in einem Artikel *alles* behandeln, oder? Es ging in diesem Artikel um die Textur-Filter, und mehr nicht. Man kann natürlich, wenn man weiß wo man hinwill (also welcher IHV "gewinnen" soll) so lange weiter fragen bin man an dem Punkt ist, der genehm ist und dann die Betrachtung schließen. Das ist ausdrücklich nicht mein Herangehen an "Aufdeck"-Thematiken. Salopp gesagt, wo NV Mist baut, kriegt NV Haue, wo ATI Mist baut, kriegt ATI Haue.
 
Zuletzt bearbeitet:
Original erstellt von aths
Genau. Nur kann man schlecht in einem Artikel *alles* behandeln, oder?

Nein, aber ich wollte dich nur drann erinnern, dass unter dem Aspekt der Bildqualität (dem ja zukünftig mehr Beachtung geschenkt wird) nicht nur ATi - zugunsten Transistorcount/Entwicklungszeit - etwas wegrationalisiert hat ;)

edit: was ich im übrigen noch anmerken wollte ;)

"Auf jeder Radeon sind korrekt trilinear gefilterte Texturen möglich, für uns das unterste Mindestmaß, was eine brauchbare 3D-Grafikkarte filtertechnisch bieten muss."

http://www.3dcenter.de/artikel/2003/10-26_b.php

Nichts ist in der heutigen welt mehr sicher ;)
 
Zuletzt bearbeitet:
ATIs Filtertricks-ATI schummelt für mehr Leistung ?

"ATIs Filtertricks" - Einsparen bei Textur-Filterungen für mehr Leistung :
http://www.3dcenter.de/artikel/2003/11-21_a.php

Mit der Maus über die Bilder fahren zum vergleichen :
http://www.3dcenter.de/artikel/2003/11-21_b.php
Mal abgesehn davon das ATI´s anisotropischer Filter(AF) in AF-Grad extrem stark blickwinkelabhängig ist und bei eingestellten 16xAF trotzdem stellenweise nur mit 2xAF filtert.

EDIT : Ups, Thread bitte löschen da schon ein ähnlicher vorhanden : https://www.computerbase.de/forum/threads/atis-filtertricks.48825/
 
Zuletzt bearbeitet:
Moin

Ich habe die beiden Threads mal zusammen geführt. ;)
 
@TheShaft
@aths

Respekt, 2 Experten ;) Also zusammenfassend : ATI schummelt mehr in der Hardware und Nvidia mehr in Treibern - wobei vielleicht zu sagen ist das "schummeln" Nvidia u.Umst. leichter fallen dürfte da HW-seitig eine qualitativ bessere Ausgangsposition dazu laut eueren Postings ? (was dieses aber nicht rechtfertigt)

Ob die ganzen Texturfilter nun nach Lehrbuch sind/sein müssen oder nicht ist vielleicht für Theoretiker vom Fach mehr ein Streitpunkt aber für den Käufer der Karte weniger - SOLANGE er dadurch keine optisch eindeutig sichtbaren Nachteile bei Spielen erkennen kann wird er immer zu jener Karte greifen die das bessere Preis-Leistungsverhältnis hat.Und diese "optisch eindeutig sichtbaren Nachteile" scheint es in der Spiele-Realtität bei ATI nunmal nicht zu geben, bei Nvidia aber teilweise doch (vorallem durch die zwecks mehr Speed manchmal angewendete, geringere 16Bit anstatt 32-Bit-Shader-Präzession der Floating-Point´s und dadurch aber mehr möglicher Farbfehler als bei ATI´s 24Bit.)
 
Zuletzt bearbeitet:
Original erstellt von aths
Salopp gesagt, wo NV Mist baut, kriegt NV Haue, wo ATI Mist baut, kriegt ATI Haue.

Alle Ehre! So muss Journalismus aussehen.

Es ist nichts langweiliger, als der ewige Streit ATi/NV oder M$/*nix oder Intel/AMD oder ... oder ...

Wie es Helmut Markwort immer sagt:'Fakten, Fakten, Fakten, das interessiert die Leser!'.

In diesem Sinne, macht weiter so, Mannen vom 3dCenter

Bye
 
Original erstellt von Crazy_Bon
Nun, welcher Radeon 9xxx-Besitzer hat nun jetzt was an seiner Bildqualität zu bemängeln, nachdem es bekannt wurde, dass einige Transistoren für bilineares Filterung eingespart wurden?
Und bei der trilinearen Filterung. Und bei anisotroper Filterung. Und bei der LOD-Berechnung. Und beim Alpha Blending (wurde im Artikel nicht erwähnt, da es nur um Texturfilter ging.) Vermutlich wurde noch an anderen Stellen gespart. Jede Sache für sich ist sicher vertretbar. Insgesamt *kann* es durchaus zu BQ-Nachteilen kommen. Muss man nur sehen, wie groß bzw. wie "schlimm" die sind.


Original erstellt von TheShaft
"Auf jeder Radeon sind korrekt trilinear gefilterte Texturen möglich, für uns das unterste Mindestmaß, was eine brauchbare 3D-Grafikkarte filtertechnisch bieten muss."

http://www.3dcenter.de/artikel/2003/10-26_b.php

Nichts ist in der heutigen welt mehr sicher ;)
Das ist so erst mal weiterhin richtig. TF nutzt im Moment noch BF (früher oder später wird es wohl HW geben, die TF mit einer MIP-Textur macht) aber das BF für TF ist zoom-mäßig in einem Rahmen, dass ATIs BF noch als genügend korrekt angesehen werden kann. Die 5 Bit LOD-Fraction beim TF sind zumindest für Direct3D ausreichend. Ich kann hier zwar sagen, dass andere besser filtern (was auch wünschenswert ist!) aber ATI korrektes TF nicht absprechen.


Original erstellt von DjDIN0
Und diese "optisch eindeutig sichtbaren Nachteile" scheint es in der Spiele-Realtität bei ATI nunmal nicht zu geben, bei Nvidia aber teilweise doch (vorallem durch die zwecks mehr Speed manchmal angewendete, geringere 16Bit anstatt 32-Bit-Shader-Präzession der Floating-Point´s und dadurch aber mehr möglicher Farbfehler als bei ATI´s 24Bit.)
Man muss hier unterscheiden. Wenn FP16 genommen wird, kann es Fehler ggü. FP24 geben. Muss aber nicht. Das hängt von vielen Faktoren ab. Wenn Nvidia "optimiert" und bewusst BQ-Nachteile inkauf nimmt, die größer sind als 1 Bit Abweichung, handelt es sich imo um eine per se unzulässige Optimierung, die nur auf ausdrücklichen User-Wunsch aktiv sein sollte. Werden einfach nur zwei Farben addiert, und dann ist das Ergebnis fertig, reicht sogar FX12 (Fixpoint mit 12 Bit) aus. Fixpoint darf man in DX9-Shadern grundsätzlich nicht verwenden, aber der Einsatz von Fixpoint würde in diesem Spezialfall keinen BQ-Unterschied erzeugen.

Es liegt an Nvidia, inwieweit sie FP16 statt FP32 nutzen, wenn sie die Prüfung zu lasch machen, kommt es zu BQ-Nachteilen, ja. Es gibt aber auch Shader wo ein Optimizier FP16 festlegen kann, ohne dass zu BQ-Nachteilen kommt. Ich befürchte allerdings, dass NV einige BQ-Nachteile durchaus zulassen wird.

Soweit ich weiß, rendert professionelle Render-Software mit FX16 (Fixpoint 16 Bit.) Das ist besser als FP16, aber FP24 ist in keinem Fall schlechter als FX16, in vielen Fällen besser. Will sagen, für Farben ist FP24 eigentlich schon mit Kanonen auf Spatzen geschossen. Hochwertiges Bumpmapping allerdings kann Präzision immer gebrauchen.

Bei Textur-Koordinaten ist FP16 unzureichend. Damit kann man nur ziemlich kleine Texturen einigermaßen befriedigend behandeln. FP24 reicht für die meisten Texturen gut aus, bei großen Texturen ist es allerdings schon grenzwertig. FP32 hat auch für große Texturen noch genügend Präzisions-Reserve.
 
Zuletzt bearbeitet:
Wobei man nicht vergessen sollte, dass FP24 ein ATI-Hauseigener Standard ist und kein allgemeiner Standard wie es FP32, FP16 ..................... ist!
 
Original erstellt von GRAKA0815
Wobei man nicht vergessen sollte, dass FP24 ein ATI-Hauseigener Standard ist und kein allgemeiner Standard wie es FP32, FP16 ..................... ist!

Problem: Wenn man sich nicht an die Standards hält, aber nVidia unter FP32 zu lahm ist, bringts der "echte" Standard erst ne Generation später und derweil wird FP24 als sinnvoll geheißen, was ja eben die besagten Vorteile gegenüber FP16 mit sich bringt. Deswegen sollte man abwägen, was sinnvoller ist (wirklich jetzt nur allgemein gesagt): geringfügige Präzision mit sehr guter Performance (FP16), ausreichende Präzision mit guter Performance (FP24) oder sehr hohe Präzision mit schwacher Performance (FP32).

Trotzdem: Bei aller Theorie, die berechtigt ist und endlich mal Hintergründe schafft, ohne dass man sich in Vorurteile ohne Basis verstrickt: Die "realen" Beispiele, die dadurch entstehen 'können' bleiben doch meist auf der Strecke, jedenfalls fragt sich der "Laie" bzw. "Anwender", was denn nun am Ende auf dem Monitor angezeigt wird. Natürlich ist das nicht aths Aufgabe, der Artikel ist genau richtig, nur weiß ich nicht, ob es mir nur so geht, aber diverse Vergleiche von den unterschiedlichen Methoden würde mir persönlich noch mehr bringen. will ja jetzt nicht stressen, aber DjDINO hats nochmal betont:

"Und diese "optisch eindeutig sichtbaren Nachteile" scheint es in der Spiele-Realtität bei ATI nunmal nicht zu geben."

Deswegen stresse (sorry schonmal :D ) ich jetzt ein wenig, weil ich einfach keine Bildvergleiche finde, die die Theorie nochmals unterstreichen! :) Weder möchte ich damit sagen, dass die Theorie falsch ist, noch möchte ich damit ATIs Design-Politik loben bzw. gutheißen! Aber durch mein eher begrenztes technisches Wissen (ich bilde mich gern weiter in diesem Bereich, allerdings studiere ich weder ein technisches Fach noch kann ich von mir behaupten, die technischen Grundlagen komplett verinnerlich und dabei die makellose Übersicht zu haben ;) ) ist es bei aller Theorie schwer einzuschätzen, was dies nun an Auswirkungen auf den täglichen Gebrauch zu tun hat... Damit will ich dich aths nicht weiter auf die Suche schicken bzw. dich dazu auffordern, DEINE kostbare Zeit für bestimmte BQ-Vergleichs-Programme zu investieren, nein, jeder kann ja mal, wenn er was findet, dies hier posten. Thx.

PS:
"Es fällt auch hier schwer, das per "realistischem" Screenshot (also aus einem Spiel) nachzuweisen. Solange trilineare Filterung genutzt wird, wird intern maximal um den Faktor 2 bilinear gezoomt. Dann fallen diese blockigen Artefakte noch nicht auf. Diese werden erst dann sichtbar, wenn hochkontrastige Texturen mit hochfrequentem Inhalt stark hochvergrößert werden."

Hier wird ja das Problem ja nochmal beschrieben, vielleicht findet aber jemand doch noch nen geeigneten Screenshot, bei dem es eventuell auffällt, ohne dass man 16x Zoom benutzen muss. IMO kann dadurch die Theorie in den meisten Fällen besser vermittelt werden, als dass man sich ab jetzt anhören muss, dass die "realen Unterschiede" deutlich sichtbar sind. Diverse Probleme lassen sich eben durch Screenshots eher erklären, wenn man durch die Theorie nicht durchsteigt und man kann mittlerweile in einigen Foren erkennen, dass einiges recht bescheiden verstanden wird, Stichsatz "Radikale Vereinfachung der komplexen Thematik". :D
 
Zuletzt bearbeitet:
Original erstellt von Riptor
Problem: Wenn man sich nicht an die Standards hält, aber nVidia unter FP32 zu lahm ist, bringts der "echte" Standard erst ne Generation später und derweil wird FP24 als sinnvoll geheißen, was ja eben die besagten Vorteile gegenüber FP16 mit sich bringt. Deswegen sollte man abwägen, was sinnvoller ist (wirklich jetzt nur allgemein gesagt): geringfügige Präzision mit sehr guter Performance (FP16), ausreichende Präzision mit guter Performance (FP24) oder sehr hohe Präzision mit schwacher Performance (FP32).

Erst einmal, ja, Du hast recht.
Aber:
Die Problematik von "neuen Features/Techniken" und "Leistung" haben wir bei nahezu "jeder" Generation neuer Grafikkarten.
GF1 - GF2
GF2 - GF3
GF3 - GF4
GF4 - GF FX
GF FX - NV40

Jeder dieser Chips hatte bestimmte Features/Techniken die entweder "neu" (DX7/DX8/DX9) waren, oder aber via brute force "kampfwertgesteigert" wurden (GF1-GF2, GF3-GF4). Wenn aber jetzt auch noch Hersteller hinzu kommen, die eigene Standards ins Spiel bringen, wird das alles nicht,
1.) langsam für die Programmierer der Software zuviel? An was sollen die sich halten? An alles?
2.) Da ich nicht glaube, dass die sich an alles halten werden/können/müssen, sehe ich da so ein paar probleme.

Wenn ein Spiel nun in FP32 rechnen möchte, die Graka aber max. FP24 unterstützt, was dann?
Umgegehrt, wenn ein Spiel max. in FP24 rechnet, die Graka aber nur FP16 und FP32 anbietet, was dann?
Kann es sein, dass dann eben Softwareseitig umgerechnet werden muß? Auf wessen Leistung geht das dann? Oder leidet dann aufgrund dessen die BQ weil ich dann "nur" in FP16 rechne?:confused_alt:
 
Original erstellt von GRAKA0815
Erst einmal, ja, Du hast recht.
Aber:
Die Problematik von "neuen Features/Techniken" und "Leistung" haben wir bei nahezu "jeder" Generation neuer Grafikkarten.
GF1 - GF2
GF2 - GF3
GF3 - GF4
GF4 - GF FX
GF FX - NV40

Klar, wobei dies immer eine Gratwanderung wird, inwiefern die besagten "Features/Techniken" sich als sinnvoll erweisen. Siehe T&L oder auch DX8... Deswegen nicht ganz einfach die Sache... Hmmmm...

Wenn ein Spiel nun in FP32 rechnen möchte, die Graka aber max. FP24 unterstützt, was dann? Umgegehrt, wenn ein Spiel max. in FP24 rechnet, die Graka aber nur FP16 und FP32 anbietet, was dann?

Jop, das ists... Wobei IMO FP32 derzeit mit den jetzigen Grafikkarten einfach zu aufwendig ist, um sinnvolle Performance-Werte bei steigender Grafikqualität zu bringen... Umgekehrt gilt dies für den Schritt von 24 zu 16...

Kann es sein, dass dann eben Softwareseitig umgerechnet werden muß? Auf wessen Leistung geht das dann? Oder leidet dann aufgrund dessen die BQ weil ich dann "nur" in FP16 rechne?:confused_alt:

Auch hier ist ja das Problem, dass man sich auf eine Gratwanderung befindet. IMO ist FP16 aus der Theorie heraus "zu unpräzise", FP24 (derzeit) gerade richtig, aber kein Standard und FP32 (derzeit) zu, ich sage mal betont spitz formuliert, zu übertrieben, aber "zukunftsorientierter". Alles in allem also kein leichtes Unterfangen, mit was man arbeiten sollte. FP16 oder gar FP12 ist aber durchaus ausreichend, es kommt immer darauf an, wie gut oder wie schlecht das Endergebnis sein sollte ider muss, hier variiert dies ja eigentlich in so weit, wie die sichtbaren Unterschiede auf dem Schirm nachher dargestellt werden oder auch nicht...

Fazit: Konfus und eigentlich auch recht subjektiv das Ganze, wie ich finde. Besser wäre natürlich, wenn verschiedene Hardwarearchitekturen individuell abgefragt werden, was denn nun sinnvoller ist. Aber: Der Mensch ist von Grund auf faul, wenn man der X-Theorie glauben schenken mag, und IMO sinds die Spieleentwickler noch nen Stufe mehr. :D Standard und nicht Standard, eigenes Ermessen und Vorgabe, hier entscheiden viele Faktoren, denn die Wege, einen Effekt darzustellen sind vielfältig.
 
Original erstellt von Riptor
hier entscheiden viele Faktoren, denn die Wege, einen Effekt darzustellen sind vielfältig.

:D Ist ja fast wie in der Bibel! Die Wege des Herrn sind unergründlich.......:volllol:
 
Original erstellt von GRAKA0815
:D Ist ja fast wie in der Bibel! Die Wege des Herrn sind unergründlich.......:volllol:

So sei es! Und irgendwann wirst auch du die dynamischen Lichtquellen in unendlicher Schönheit erkennen, die dir auch in dunkelster Nacht den richtigen Weg zeigen werden...
naughty.gif
:D ;)
 
Zurück
Oben