Nova eXelon
Commander
- Registriert
- Jan. 2011
- Beiträge
- 2.570
Bitte nicht nur mit Monitoren, sondern auch mit VR und TV!Wolfgang schrieb:Für dich (und hoffentlich noch viele andere) ist dann sicher der demnächst erscheinende Blindtest interessant!![]()
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Bitte nicht nur mit Monitoren, sondern auch mit VR und TV!Wolfgang schrieb:Für dich (und hoffentlich noch viele andere) ist dann sicher der demnächst erscheinende Blindtest interessant!![]()
Kowa schrieb:Ich habe mich, durch den Kauf eines 4k-Monitors, bemüßigt gesehen, mit diesen Einstellungen zu experimentieren. Mit FG konnte ich überhaupt nichts anfangen. Ich weiß nicht, ob es dieser Input-Lag ist, aber dazu war der Effekt sehr stark. Das Bild zog den Mausbewegungen nach wie an einem Gummiband. Vlt ist diese Technik praktisch, wenn mein einen Film schaut, aber nicht zum Zocken.
Doch.Rickmer schrieb:Nichts davon macht meine initiale Aussage, dass nvidia ihre Upscaler gegen mit 16k Auflösung generiertes 'ground truth' trainiert, invalide.
Ist ja auch völlig ok. Und viel besser als sich irgendwelchen Paradigmen unterzuordnen, à la "nur native ist wahr".DaTheX schrieb:Puh, ich bin wohl einfach zu alt. Das sieht doch alles gleich aus. Die Unterschiede sind für mich so dermaßen gering, dass ich mich im Zweifelsfall immer für die Variante mit den meisten FPS und LOWs entscheiden würde.
Nö, du hast nur meine Worte falsch interpretiert und/oder unterstellst mir willkürlich Worte die ich nicht geschrieben habe.Grestorn schrieb:Das hast Du missverstanden. Es wird schon gelernt, aber nicht die Bilddaten des zu rendernden Spiels. Das wäre bei der Masse der Spiele auch völlig unmöglich.
Wo willst du sonst motion vectors her bekommen? Und warum nutzt nvidia das sehr spezifische Wort game engine?DLSS 2.0 has two primary inputs into the AI network:
- Low resolution, aliased images rendered by the game engine
- Low resolution, motion vectors from the same images -- also generated by the game engine
Alles das und noch viel mehr. Weil man einem neuralen Netzwerk nichts hyperspezifisches beibringen kann, sondern man kann nur die Trainingsdaten anpassen um eine Problemstelle stärker zu gewichten.Grestorn schrieb:Was der Algorithmus lernt, ist, wie z.B. mit Occlusion und anderen Animationseffekten umzugehen ist, quasi um einen Erfahrungsschatz zu bekommen.
Leg mir keine Worte in den Mund. Das habe ich nirgends geschrieben.Grestorn schrieb:Allein schon die Annahme, dass NVidia ihren Algorithmus mit allen Spielen und allen Szenen in all diesen Spielen trainieren müsste... Überleg doch mal.
Wenn dich die Rohleistung so sehr interessiert, dann schau auf die Flops oder die Leistung bei diversen Benchmarks (3DMark, Heaven Benchmark etc.).Inxession schrieb:Was ich aber nach wie vor schwierig finde ist der Vergleich der GPUs.
Das muss einfach immer Nativ passieren, damit man die Rohleistung der GPUs auch sieht.
DLSS / FSR ist nicht einfach nur hochskaliert. Schade, dass jemand, der sich auf die Fahnen schreibt, sich mit Fotografie intensiv zu beschäftigen, das einfach nicht wahrhaben will und sich nicht entsprechend informiert.Tobias123 schrieb:Es wundert mich daher nicht, dass hier hochskalierte überschärfte DLSS-Artefakte als eine "bessere Bildqualität" empfunden werden. Wie auch bei Handyaufnahmen bedeutet heutzutage Qualität etwas anderes als früher... ;-)
Für mich sind die Unterschiede zwar schon noch gut sichtbar, aber ich könnte mich auf jeden Fall mit beidem sehr gut abfinden, insbesondere, wenn ich dann wirklich am Spielen bin und nicht mehr am "suchen".DaTheX schrieb:Die Unterschiede sind für mich so dermaßen gering
Die Entscheidung zwischen DLSS und FSR muss man halt nur leider beim Kauf der GPU schon treffen und dann auch fest dabei bleiben. Zumindest, wenn man nicht mit Optiscaler arbeiten möchte.DaTheX schrieb:dass ich mich im Zweifelsfall immer für die Variante mit den meisten FPS und besten LOWs entscheiden würde.
Es steckt ein temporaler Anteil in den Upscalern. Wenn Details im nativen Bild in den letzten X Frames vorhanden sind, dann werden diese aufgrund der Information der letztes Frames interpoliert. Hinzudichten tun die Upscaler nichts.rollmoped schrieb:Wenn die Renderauflösung nicht zu niedrig ist, kann das dazu führen, dass im upgescalten Bild mehr Details zu erkennen sind, als im Ursprünglichen. Weil das neuronale Netz eben dazu in der Lage ist, mehr Details hinzuzudichten, als im nativen Bild waren. Solange das stimmig aussieht, hat man dann den Eindruck, dass das teilweise erfundene Bild "besser" aussieht.
Nein, genau das tun sie nicht. Du hast mich nicht verstanden. Lies meinen Beitrag nochmal.Rickmer schrieb:Und natürlich trainiert nvidia mit Daten aus diversen Spielen. Womit sollen die sonst trainieren? Dem Bilderkatalog von Wikipedia? Der Videobibliothek von Pornhub?
Rickmer schrieb:Aber ganz ohne Trainingsmaterial geht auch nichts. Logisch, oder? Und nvidia hat selbst gesagt, wie sie ihre Trainingsdaten erzeugen.
MSAA ist seit knapp einer Dekade tot.Iscaran schrieb:Da kann ich nicht zustimmen. TAA ist ein AA modus von mehreren es gibt ja noch andere. Ich nutze eigentlich meisst das adaptive AA, da dies imho am besten aussieht. MSAA neigt in der Tat zu flimmern.
AMD kaufen !Grestorn schrieb:Also was jetzt?
Natürlich tun sie das. Siehe das Zitat von nvidia.Grestorn schrieb:Nein, genau das tun sie nicht.
Grestorn schrieb:Du hast mich nicht verstanden. Lies meinen Beitrag nochmal.
Okay. Klär mich auf.Grestorn schrieb:Aber es werden eben keine Daten aus den Spielen erlernt, wie Du insistierst. Es wird erlernt, wie man aus unterdefinierten Informationen die Originaldaten am besten restaurieren kann. Das ist etwas anderes und es ist eben auch nicht "Details hinzuerfinden", wie immer behauptet wird.
2) aber trotzdem nicht mit Daten von Spielen trainiert wird, obwohl es das einfachste und offensichtlichste wäre einen Modus für den Output von Trainings-Daten als Teil der bestehenden DLSS Integration von Spielen zu schaffenDLSS 2.0 has two primary inputs into the AI network:
- Low resolution, aliased images rendered by the game engine
- Low resolution, motion vectors from the same images -- also generated by the game engine
Nee, völlig verdeckte Bereiche einfüllen war eine Funktion die Reflex 2 haben sollte. Welches noch immer nicht rausgekommen ist.Grestorn schrieb:Wenn etwas "erfunden" wird, dann nur, wie z.B. die Fläche hinter einem sich wegbewegendem Objekt (Okklusion) so reproduziert werden kann, dass es schlüssig aussieht. Die Details bei stehender oder normal animierter Grafik werden nicht dazugedichtet oder aus erlernten Daten abgeleitet.