News Open Source: AMD veröffentlicht FidelityFX SDK mit FSR3-Quellcode

Quidproquo77 schrieb:
Da gibt es ja mehrere Blickwinkel. Entweder ich finde das Unternehmen sympathischer, welche diese Technologien vor Jahren schon zur Marktreife gebracht hat und nur seine Käufer damit versorgte,
.. und versucht durch diese Technologien ein Quasi-Monopol aufzubauen und ihre Käufer mehr abhängig zu machen.

Ich habe mal für dich ergänzt ;)

Quidproquo77 schrieb:
Hat Nvidia die Welt mit RT, DLSS oder Reflex, was ja vorerst Eigenentwicklungen waren, denn schlechter gemacht?
Ja haben Sie.
Die Käufer Ihrer Grafikkarten zahlen für Implementierung in Spielen die sie nicht spielen und schlimmer Käufer der Spiele zahlen für eine Implementierung die sie nicht nutzen können...

Quidproquo77 schrieb:
Sie haben AMD gezwungen zu reagieren und nun bekommen die Kunden von beiden Herstellern Technologien auf Augenhöhe. Abgesehen von DLSS, also dem Upscaler selbst und ein paar Problemchen bei Antilag, hat AMD eine gute Arbeit geleistet.
Nvidia hat das übernommen, was früher die Engine-/Spiele-Entwickler gemacht haben.

Das Problem damit ist, dass sie insbesondere durch ihre Marktmacht dadurch versuchen den freien Wettbewerb unter den Grafikherstellern zu verhindern. Es zählt nicht mehr nur wer die besten Leistung hat, sondern auch wer es geschafft hat in den Spielen die meisten proprietären Features mithilfe von Geld und Marktmacht durch zu drücken...
Ergänzung ()

Sinatra81 schrieb:
Diese Glorifizierung hier für AMD… wird einem ja schlecht. 🤢

Als ob AMD ihr FSR aus christlicher Nächstenliebe als Open Source gestaltet?!

Da steckt genauso irgendeine Strategie zur Gewinnmaximierung & Absatzsteigerung dahinter… wo leben hier denn manche? 😅
Es ist völlig egal warum AMD irgendetwas macht, Fakt ist sie verhalten sich sehr viel besser als ihr Konkurrent und haben bisher nicht den Versuch der Marktmanipulation unternommen. die ihre Konkurrenten bisher versucht haben......

Du magst das Glorifizierung nennen, andere denken eben auch an die Zukunft des PC-Gamings...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm, CyberdyneSystem, Independent und eine weitere Person
jonderson schrieb:
Du magst das Glorifizierung nennen, andere denken eben auch an die Zukunft des PC-Gamings...
Und ich nenne es Nachahmer. Nvidia hat mit G-Sync, DLSS und FG immer vorgelegt, AMD hingegen ständig nur aufgeschlossen. AMD zeigt null Engagement und wird trotzdem gefeiert, das verstehe wer will.
 
  • Gefällt mir
Reaktionen: Quidproquo77, Sinatra81 und MrHeisenberg
Zotac2012 schrieb:
So siehts aus, Nvidia wird dann wieder neue feature bei den neuen RTX5000er Grafikkarten implementieren, die auch nur auf diesen neuen Grafikkarten funktionieren werden, so wie sie es ja auch bei der RTX4000er Serie gemacht haben.
Sie haben es in 3 Generationen ein einziges mal gemacht und der Grund war technischer Natur.
Wie zum Teufel kommt ihr Helden jetzt auf den Gedanken, dass es immer so seien wird?

Noch dazu wurde hier DLSS und FG sowas von verteufelt und auf einmal kommt AMD mit was vergleichbarem um die Ecke, wird es durch die Bank weg gefeiert.
Einige sind sich hier für nichts zu schade.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Sinatra81
Atma schrieb:
Und ich nenne es Nachahmer. Nvidia hat mit G-Sync, DLSS und FG immer vorgelegt, AMD hingegen ständig nur aufgeschlossen. AMD zeigt null Engagement und wird trotzdem gefeiert, das verstehe wer will.

Mantle? Daraus wurde Vulkan und Direct3D 12 hat auch Teile übernommen. Und vor G-Sync gab es schon variable Frameraten im eDP 1.3 von 2011.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm
Mantle und das daraus entstandene Vulkan haben jedoch nichts direkt mit AMD vs. Nvidia zu tun. Mantle ist halt auch schon wieder fast 10 Jahre her, seitdem sieht es mit dem Engagement düster aus.

Was VRR angeht hat Nvidia trotzdem den Stein erst so richtig ins Rollen gebracht und das Feature wie man so schön sagt "salonfähig" gemacht. Zuvor als verstecktes Feature bei eDP kannte das so gut wie niemand und es erhielt auch keine wirkliche Aufmerksamkeit.
 
  • Gefällt mir
Reaktionen: Quidproquo77 und MrHeisenberg
  • Gefällt mir
Reaktionen: Virny
Und was hat AMD davon? Nichts, weil Open Source. Von einem der wertvollsten Unternehmen der Welt gab es bestenfalls ein "danke" und einen feuchten Händedruck. Man kann von Nvidia halten was man will, aus betriebswirtschaftlicher Sicht machen die jedoch so ziemlich alles besser. Deswegen steht Nvidia dort wo es heute ist.
 
  • Gefällt mir
Reaktionen: Sinatra81 und MrHeisenberg
Atma schrieb:
Was VRR angeht hat Nvidia trotzdem den Stein erst so richtig ins Rollen gebracht und das Feature wie man so schön sagt "salonfähig" gemacht. Zuvor als verstecktes Feature bei eDP kannte das so gut wie niemand und es erhielt auch keine wirkliche Aufmerksamkeit.
VRR wurde schon vor GSync in Laptops eingesetzt und wird es bei Nvidia in Laptops, nun unter dem Namen GSync, auch weiterhin genau so eingesetzt...
 
Zuletzt bearbeitet:
jonderson schrieb:
.. und versucht durch diese Technologien ein Quasi-Monopol aufzubauen und ihre Käufer mehr abhängig zu machen.
Natürlich streben Unternehmen danach so viel wie möglich von ihren Produkten abzusetzen. Von einem Monopol sind wir jedoch weit entfernt.

Bei AMD bist du doch auch davon abhängig, dass das proprietäre Treiber Ökosystem rund um die GPU läuft. Da ist auch großteils closed source. AFMF zum Beispiel.
jonderson schrieb:
Ich habe mal für dich ergänzt ;)
Du glaubst AMD würde mit hohem Marktanteil anders handeln?
jonderson schrieb:
Da kann ich deine Sichtweise an dieser Stelle aber gar nicht nachvollziehen.
Es ist viel schwieriger neue Features zu entwickeln und zur Marktreife zu bringen, als nachzuziehen. Natürlich hat der Markt in erster Linie deutlich von Nvidias Entwicklungen profitiert. Egal ob diese, closed source oder Open source sind.
jonderson schrieb:
Die Käufer Ihrer Grafikkarten zahlen für Implementierung in Spielen die sie nicht spielen
Natürlich müssen die Unternehmen Geld einnehmen um die Entwicklungsabteilungen zu finanzieren.
jonderson schrieb:
und schlimmer Käufer der Spiele zahlen für eine Implementierung die sie nicht nutzen können...
Nach deiner Lesart bezahlen dann auch Playstation 4 Kunden die Entwicklung eines Spiels für die Nintendo Switch. Ich kann der Logik an der Stelle nicht ganz folgen.
jonderson schrieb:
Nvidia hat das übernommen, was früher die Engine-/Spiele-Entwickler gemacht haben.
Naja, Antialiasing Verfahren, wozu DLSS ja prinzipiell zählt, wurden schon immer auch von den GPU Entwicklern vorangetrieben und auf deren Hardware realisiert. Siehe zum Beipiel SGSSAA alias Sparse Grid Super Sampling Antialiasing oder FXAA, MLAA und Co.
jonderson schrieb:
Das Problem damit ist, dass sie insbesondere durch ihre Marktmacht dadurch versuchen den freien Wettbewerb unter den Grafikherstellern zu verhindern.
Ich finde sie haben genau das Gegenteil getan. Wettbewerb durch die Entwicklung dieser neuen Features angekurbelt und die Situation der Industrie mit AMD und Intel stark verbessert.
jonderson schrieb:
Es zählt nicht mehr nur wer die besten Leistung hat, sondern auch wer es geschafft hat in den Spielen die meisten proprietären Features mithilfe von Geld und Marktmacht durch zu drücken...
Ich denke nicht, dass es relevant ist ob etwas proprietär oder nicht ist.
Ich finde es viel mehr besser, dass Entwicklungen vor dem unmittelbaren Zugriff anderer Hersteller geschützt sein können, um einen Anreiz zur Entwicklung sicherzustellen. Die Hardware ist ja auch nicht "Open Source".

Ich kann mir nicht detailliert ansehen wie Nvidia, AMD und Intel ihre Grafikkarten und CPUs entwickeln.
jonderson schrieb:
Fakt ist sie verhalten sich sehr viel besser als ihr Konkurrent und haben bisher nicht den Versuch der Marktmanipulation unternommen.
Meinst du Nvidias GPP? Da sehe ich das auch so, aber ansonsten sind für mich die Firmen lediglich Aktienunternehmen ohne spezifisches Verhalten.
jonderson schrieb:
Du magst das Glorifizierung nennen, andere denken eben auch an die Zukunft des PC-Gamings...
Die Zukunft des PC Gaming rettet man sicher nicht mit einseitigen Betrachtungsweisen.
Ergänzung ()

MrHeisenberg schrieb:
Sie haben es in 3 Generationen ein einziges mal gemacht und der Grund war technischer Natur.
Was zu beweisen wäre. Der Beweis liegt nicht vor, von daher ist das spekulativ.
Ergänzung ()

jonderson schrieb:
VRR wurde schon vor GSync in Laptops eingesetzt und wird es bei Nvidia in Laptops, nun unter dem Namen GSync, auch weiterhin genau so eingesetzt...
Davon höre ich zum ersten Mal. Kann ich mir nicht vorstellen.
 
Zuletzt bearbeitet:
Quidproquo77 schrieb:
Was zu beweisen wäre. Der Beweis liegt nicht vor, von daher ist das spekulativ.
Nvidia hatte doch Daten gezeigt, wie lange die Zwischenbildberechnung auf einer Ampere GPU dauert.

Man kann natürlich sagen, sie hätten FG auch von Anfang an so aufbauen können, dass Ampere es auch kann, aber offenbar waren sie mit der daraus resultierenden Qualität nicht zufrieden.
Tatsache ist also aktuell, so wie FG arbeitet, kann Ampere es aus technischen Gründen nicht nutzen.
 
  • Gefällt mir
Reaktionen: MrHeisenberg
Taxxor schrieb:
Nvidia hatte doch Daten gezeigt, wie lange die Zwischenbildberechnung auf einer Ampere GPU dauert.
Alte Zöpfe abzuschneiden ist nicht per se schlecht, aber Daten eines Herstellers die belegen sollen, dass Amperes OFA zu langsam für die Zwischenbildberechnung sei, würde ich per se in Frage stellen.

Welche Daten eigentlich?

Unabhängig prüfen lässt sich das nicht.
Taxxor schrieb:
aber offenbar waren sie mit der daraus resultierenden Qualität nicht zufrieden.
Wer weiß schon wie der Quellcode dazu aussieht. Ohne diesen zu kennen und das mit Ampere ans Laufen zu bringen, kann man keine qualitative Aussage treffen.
Taxxor schrieb:
Tatsache ist also aktuell, so wie FG arbeitet, kann Ampere es aus technischen Gründen nicht nutzen.
Bitte Belege für diese These liefern.
 
Quidproquo77 schrieb:
Welche Daten eigentlich?
Müsste ja jetzt noch mal suchen, es war soweit ich mich erinnere eine Tabelle direkt auf der Nvidia Seite, wo man gesehen hat, wie viel Zeit zum erstellen eines interpolierten Frames gebraucht wurde, da wurde dann eine 3090 und eine 4090 verglichen.
Man kann es aber unabhängig davon auch an der Performance der OFA von Ampere und Ada abschätzen, wie viel langsamer FG laufen würde.

Ich hatte damals aber schon mal in einem Thread mit den Zahlen hantiert, die Nvidia genannt hat und kam da glaube zu der Erkenntnis, dass FG mit allem unterhalb einer 3090 nur in einem recht niedrigen FPS Bereich nutzbar gewesen wäre, da die Zeit zum interpolieren sehr schnell größer war, als die Frametimes selbst.
 
Zuletzt bearbeitet:
MehlstaubtheCat schrieb:
Der FSR3 "Algorithmus" wurde auch ganz leicht verbessert, was der Bildqualität zu gute kommt, laut AMD.
Hast du dazu eine Quelle? Ich kann keinerlei Hinweise dazu finden, dass AMD am Upscaler Verbesserung vorgenommen hat (das hätten sie doch in jedem Fall marketing-wirksam erwähnt). Stattdessen steht in der Dokumentation zu FSR 3 folgendes:
AMD FidelityFX Super Resolution 3 (FSR3) improves upon FSR2 by extending its upscaling with a frame interpolation technique which can double framerate and improve the smoothness of animations and frame pacing.

It uses temporal upscaling based on FSR 2.2.2 ...

RogueSix schrieb:
PS5 liegt bei ca. 50 Mio. und Xbox Series X/S wird auf ca. 20 Mio. geschätzt*, also bis zur 100 Mio. haben wir noch ein Stück vor uns.
[...]
Was sich aber wirklich schon weit über 100 Mio.-fach verkauft hat, nämlich inzwischen ca. 132 Mio. Exemplare, ist die Switch.
Die neusten Zahlen die ich gefunden habe beziehen sich auf November und sprechen von 49 Millionen PS5 und 25 Millionen Xbox Series X|S. Hab daher großzügig aufgerundet da das Weihnachtsgeschäft ja noch fehlt. :D
Die Switch zählt per Definition soweit ich das überblicke nicht zu den Next-Gen Konsolen (8th Gen, 9th Gen). :p Aber stimme dir natürlich zu. Nvidia mischt so gesehen auf dem Konsolenmarkt auch fleißig mit. :daumen:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77
Quidproquo77 schrieb:
Unabhängig prüfen lässt sich das nicht.
Doch lässt es sich und das Thema hatten wir schon x mal.
@.Sentinel. hat es auf Ampere getestet, da es keinen GPU Lock seitens Nvidia gibt und das Ergebnis war, unterhalb der 3090, nicht so dolle.

Ich kann nicht nachvollziehen, dass man Verschwörungstheorien eher glaubt als, dass es eine technische Begründung dafür gibt.
 
  • Gefällt mir
Reaktionen: RogueSix und Taxxor
  • Gefällt mir
Reaktionen: MehlstaubtheCat
Quidproquo77 schrieb:
Natürlich streben Unternehmen danach so viel wie möglich von ihren Produkten abzusetzen. Von einem Monopol sind wir jedoch weit entfernt.
Schau dir die Marktanteile von Nvidia an, schau dir an wie Nvidia mit Spieleherstellern umgeht.

Quidproquo77 schrieb:
Bei AMD bist du doch auch davon abhängig, dass das proprietäre Treiber Ökosystem rund um die GPU läuft. Da ist auch großteils closed source. AFMF zum Beispiel.
¯\(ツ)/¯ Ich nutze 100% Open Source treiber
Was auf der Karte selber abläuft ist nicht mein Problem (solange es keine Malware ist...)


Quidproquo77 schrieb:
Du glaubst AMD würde mit hohem Marktanteil anders handeln?
Also darf ich dir auch unterstellen, dass du töten würdest, wenn du die Chance dazu hast?

Quidproquo77 schrieb:
Natürlich hat der Markt in erster Linie deutlich von Nvidias Entwicklungen profitiert. Egal ob diese, closed source oder Open source sind.
Wie hat denn der Markt profitiert?

Quidproquo77 schrieb:
Natürlich müssen die Unternehmen Geld einnehmen um die Entwicklungsabteilungen zu finanzieren.
Wenn ich eine Grafikkarte kaufe, dann möchte ich gerne, dass das Unternehmen in die Hardware- und Treiberentwicklung investiert. Das war es. Alles andere führt zu Vermischungen die nicht gut sind, wie man gut an Nvidia sieht.

Quidproquo77 schrieb:
Nach deiner Lesart bezahlen dann auch Playstation 4 Kunden die Entwicklung eines Spiels für die Nintendo Switch. Ich kann der Logik an der Stelle nicht ganz folgen.
¯\(ツ)/¯ Und ich deiner Logik nicht


Quidproquo77 schrieb:
Ich finde sie haben genau das Gegenteil getan. Wettbewerb durch die Entwicklung dieser neuen Features angekurbelt und die Situation der Industrie mit AMD und Intel stark verbessert.
Du meinst Wettbewerb wie:
jonderson schrieb:
AAGate
BatmanGate
Gameworks
970 Gate
Ares
NDA - Episode Heise
NDA - Episode Hardware Unboxed
Linux
Registrierpflicht
Physx
Holz-Fermi

Quidproquo77 schrieb:
Ich denke nicht, dass es relevant ist ob etwas proprietär oder nicht ist.
Ich finde es viel mehr besser, dass Entwicklungen vor dem unmittelbaren Zugriff anderer Hersteller geschützt sein können, um einen Anreiz zur Entwicklung sicherzustellen. Die Hardware ist ja auch nicht "Open Source".
Nen richtig schlechter Vergleich.
Wieso meinst du kann eine Grafikkarte im Betriebssystem überhaupt ein Bild anzeigen?
Wenn Hardware WIRKLICH closed Source wäre, hätten wir heute alle einen MAC (oder ähnliches). Die komplette Hardware von einem Hersteller der auch das Betriebssystem stellt.
Hardware ist nicht Closed Source.
Sondern Hardware muss über ihre Treiber genaue OFFENE APIs ansprechen können. Genau so funktionieren APIs wie DX, Vulkan, OpenGL und vieles vieles mehr.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm, CyberdyneSystem und Snoop7676
MrHeisenberg schrieb:
Doch lässt es sich und das Thema hatten wir schon x mal.
Dann bitte den Link zur Quelle mit dem entsprechenden Beweis.
MrHeisenberg schrieb:
@.Sentinel. hat es auf Ampere getestet, da es keinen GPU Lock seitens Nvidia gibt und das Ergebnis war, unterhalb der 3090, nicht so dolle.
Das läuft nicht auf Ampere. Der Treiber lässt es nicht zu, auch nicht auf Entwicklerebene.
Welchen Hack hat @sEnTinel benutzt und wo sind die Ergebnisse aufgeführt?
MrHeisenberg schrieb:
Ich kann nicht nachvollziehen, dass man Verschwörungstheorien eher glaubt als, dass es eine technische Begründung dafür gibt.
Dazu müsste die technische Begründung unabhängig überprüfbar sein.
Bzw. zumindest schlüssig sein. Die Erzeugung des Zwischenbildes erfolgt nach der Berechnung der beiden "echten" Frames und wird mit etwas Verzögerung dann dazwischen eingefügt.

AMD zeigt, dass FG gut auf Ampere läuft. Damit ist Nvidias Aussage angreifbar.
Ergänzung ()

jonderson schrieb:
Schau dir die Marktanteile von Nvidia an, schau dir an wie Nvidia mit Spieleherstellern umgeht.
Die Spielehersteller werden wie ich finde sehr gut von Nvidia unterstützt.
AMD darf sich davon gerne eine Scheibe abschneiden.
jonderson schrieb:
¯\(ツ)/¯ Ich nutze 100% Open Source treiber
Was auf der Karte selber abläuft ist nicht mein Problem (solange es keine Malware ist...)
Spielst du auf Linux?
jonderson schrieb:
Also darf ich dir auch unterstellen, dass du töten würdest, wenn du die Chance dazu hast?
Nein, ich wollte nur darlegen, dass Aktienunternehmen ihren Anteilseignern verpflichtet sind und in erster Linie Profit angestrebt wird.
jonderson schrieb:
Wie hat denn der Markt profitiert?
Die Spieleentwickler haben durch RT, Upscaling und Frame Generation viel mehr Möglichkeiten die Grafikkarten auszureizen und die Leistung in mehr eye Candy zu investieren.
jonderson schrieb:
Und ich deiner Logik nicht
Bezugnehmend auf was?
jonderson schrieb:
...so funktionieren APIs wie DX, Vulkan, OpenGL und vieles vieles mehr.
DirectX ist keine offene API.
 
Zuletzt bearbeitet:
MrHeisenberg schrieb:
Sie haben es in 3 Generationen ein einziges mal gemacht und der Grund war technischer Natur.
Wie zum Teufel kommt ihr Helden jetzt auf den Gedanken, dass es immer so seien wird?
Nvidia hat DLSS mit Turing eingeführt und Frame Generation mit Ada Lovelace. Das wären für mich zweimal innerhalb von drei Generationen.
Ob beides wirklich technischer Natur war, wird man vielleicht erst in Zukunft sicher bestimmen können.


Taxxor schrieb:
Nvidia hatte doch Daten gezeigt, wie lange die Zwischenbildberechnung auf einer Ampere GPU dauert.

Man kann natürlich sagen, sie hätten FG auch von Anfang an so aufbauen können, dass Ampere es auch kann, aber offenbar waren sie mit der daraus resultierenden Qualität nicht zufrieden.
Tatsache ist also aktuell, so wie FG arbeitet, kann Ampere es aus technischen Gründen nicht nutzen
Das wäre aber schon überraschend, sofern Avatar: Frontiers of Pandora nicht ein Ausreißer für die zukünftige FMF-Qualität darstellt. Sonst hätte AMD zur Zeit die technisch bessere Frame Generation Technologie, da sie ohne dedizierte Hardware auskommt und trotzdem einwandfreie Interpolation ermöglicht.
 
  • Gefällt mir
Reaktionen: SweetOhm und Quidproquo77
N0Thing schrieb:
Sonst hätte AMD zur Zeit die technisch bessere Frame Generation Technologie, da sie ohne dedizierte Hardware auskommt und trotzdem einwandfreie Interpolation ermöglicht.
Ich bin erst mal gespannt, wie in zukünftigen Titeln bei deren FMF Implementierung mit HUD Elementen umgegangen wird. Denn das ist weit entfernt von "einwandfrei".
So wie es in Avatar passiert, würde ich FMF hier nicht nutzen wollen.
Ergänzung ()

Quidproquo77 schrieb:
Das läuft nicht auf Ampere. Der Treiber lässt es nicht zu, auch nicht auf Entwicklerebene.
Da sagt sein Post was anderes
https://www.computerbase.de/forum/t...koennte-dlss-blockieren.2149515/post-28366887
Und damit verbunden auch der hier
https://www.computerbase.de/forum/t...koennte-dlss-blockieren.2149515/post-28366787
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MrHeisenberg
Taxxor schrieb:
So wie es in Avatar passiert, würde ich FMF hier nicht nutzen wollen.
Das einzig nennenswerte Problem hat AMDs Frame Generation mit der transparenten Missions-Anzeige in der linken oberen Ecke des Bildschirmes, die in Verbindung mit einigen anderen Bildinhalten zum Flimmern neigt. Da die Missionsinformationen nach wenigen Sekunden automatisch ausgeblendet werden, ist dies aber kein wirklich störendes Phänomen.
Klingt für mich nicht sonderlich dramatisch.

Und wenn ich mich richtig erinnere, hat auch Nvidias Frame Generation hin und wieder Probleme mit HUD-Elementen. Trotz extra Hardware.
 
  • Gefällt mir
Reaktionen: Quidproquo77
Zurück
Oben