TheInvisible schrieb:
Fsr3 war nicht gut sondern dlss hoffnungslos unterlegen, warum ist AMD sonst den AI weg gegangen und hat extra Hardware dafür eingebaut und ein Modell trainiert? Sei doch wenigstens ein wenig realistisch...
Hoffnungslos… naja, es war unterlegen, speziell bei den Artefakten durch sich bewegende Elemente. Bewegte Elemente. Kommt dir das bekannt vor? Habe ich das vielleicht schon ein paar Mal erwähnt im Zusammenhang, wofür die "AI" in DLSS vermutlich hauptsächlich verwendet wird?
Und damit hast Du auch den Grund, warum man den FSR-3-Algorithmus so erweitert hat, dass er sehr effizient mit Int8 läuft – und damit auch Technologien zurückgreifen kann, die man auch aus dem AI-Bereich kennt. Und das Ganze deswegen einfach mal AI genannt. Cooles Marketing. NVidia hat's vorgemacht.
Der Begriff "AI" ist ja – und das solltet ihr wissen – nicht 100% scharf definiert. Was schon alles als AI bezeichnet wurde...
Nochmal: Ich bezweifle nicht, dass AI-like-Technologien auch auf den Karten laufen. Ganz sicher sogar. Das, was auf den Tensor-Kernen läuft, ist sicher eine Art AI im Kleinen.
IM KLEINEN
So etwas kann nicht mal eben 100 Bilder pro Sekunde erzeugen, auf eine Art, wie das voll ausgewachsene Transformer-AIs, die man im Netz nutzen kann, schon nicht hinbekommen. Auch wenn ich eine Transformer AI im Netz ein Bild nur SKALIEREN lasse, warte ich viele SEKUNDEN auf das Resultat.
SEKUNDEN. Im Netz. Und das soll auf einer 2060 in 100-facher Geschwindigkeit laufen? Get real.