News Open Source: AMD veröffentlicht FidelityFX SDK mit FSR3-Quellcode

GOOFY71 schrieb:
Sicher bin ich mir da noch nicht, Nvidia hätte den Preis der 4080 schon lange an die 7900XTX angleichen müssen, da die Karten ungefähr gleichschnell sind, FG und RT aussenvor.
Nvidias Preispolitik ist schon sehr arrogant, da das Kerngeschäft im Profisegment liegt, wo für Karten fünfstellige Beträge gezahlt werden.
Nvidia ist meiner Meinung nicht arrogant, sie wissen nur das ihre Schäfchen zahlen wie viel Nvidia will ;)

Diese ganze Preisspirale ist entstanden, weil man gemerkt hat, dass die Schafe jeden Preis zahlen.
Nächste Generation wird garantiert wieder teurer, vermutlich fängt man schon mit Super an...
 
  • Gefällt mir
Reaktionen: Sinatra81 und up.whatever
jonderson schrieb:
Nvidia ist meiner Meinung nicht arrogant, sie wissen nur das ihre Schäfchen zahlen wie viel Nvidia will ;)
Das ist richtig, denn der Verbraucher bestimmt letztenendes IMMER den Preis und Nvidia ist auch nur ein Wirtschaftsunternehmen. Wenn die Karten niemand kaufen würde, wären diese automatisch günstiger!
Was ich damit ausdrücken wollte, dass der Kunde langfristig den Preis bestimmt, nicht der Anbieter.
Sorry, ich musste mich nochmal korrigieren, mit Arroganz hat das sicherlich nichts zu tun, sondern mit Geldgier.😂
 
Zuletzt bearbeitet:
GOOFY71 schrieb:
Aber sollte das widererwarten tatsächlich so sein, werde ich mir eine 4080 S besorgen und zeitgleich wird AMD die 7900er Reihe wahrscheinlich relativ stark im Preis senken.
Seitdem update das die Super Serie rauskommt sind die 7900er bereits ordentlich gefallen. Glaube mit einer gebrauchten 4080 für ~1000€ bist du besser bedient ;-). Die 4080S hat das kleinste Update und wird nur circa 5 Prozent schneller sein als die originale.
Ergänzung ()

GOOFY71 schrieb:
Sicher bin ich mir da noch nicht, Nvidia hätte den Preis der 4080 schon lange an die 7900XTX angleichen müssen, da die Karten ungefähr gleichschnell sind, FG und RT aussenvor.
Nvidias Preispolitik ist schon sehr arrogant, da das Kerngeschäft im Profisegment liegt, wo für Karten fünfstellige Beträge gezahlt werden.
Nee weil Nvidia in RT und Effizienz leider einfach immernoch meilenweit voraus ist.
 
pinacolada schrieb:
Glaube mit einer gebrauchten 4080 für ~1000€ bist du besser bedient ;-).
Ich kaufe keine gebrauchte Karte für 1000€, alleine schon wegen dem Risiko mit der übertragbaren Garantie und dem Wegfall des Widerrufs.
 
  • Gefällt mir
Reaktionen: Özil
crustenscharbap schrieb:
Traurig, dass es anscheinend so leicht FSR3 zu integrieren und die großen Spielehersteller es oft nicht tun.
1. Es war bis jetzt nicht "offiziell" vorhanden!
Somit warten die Game Hersteller bis es fertig ist.

2. AMD wird für Forspoken und Immortals of Aveum speziell angefragt haben,
ob Sie eine nicht 100% fertige FSR3 "Fassung" implementieren wollen
und somit haben die es früher intergriert.
G00fY schrieb:
Ich hab nochmal ein bisschen recherchiert, FSR3 scheint sich von den Änderungen tatsächlich "nur" auf Frame Generation zu beschränken. Das Upscaling bzw. Super Resolution ist anscheinend identisch zu FSR 2.2(.2).
Nope!

Der FSR3 "Algorithmus" wurde auch ganz leicht verbessert, was der Bildqualität zu gute kommt, laut AMD.

Vergleiche wird es denke ich von Digital Foundry erst dann geben,
wenn ein Cyperpunk 2077 auch FSR3 intergiert ist,
dann erst kann man optische Vergleiche von FSR 2 zu 3 ziehen.
Bin mir sicher das wird kommen, eben dann wenn CDPR FSR 3 in CP2077 integriert,
hat was Sie ja schon angekündigt haben.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Wanderwisser
GOOFY71 schrieb:
Ich kaufe keine gebrauchte Karte für 1000€, alleine schon wegen dem Risiko mit der übertragbaren Garantie und dem Wegfall des Widerrufs.
Wenn du sie auf ebay kaufst, hast du doch käuferschutz. Rechnung mit Gewährleistungsabtrittserklärung und Problem gelöst.
 
.Hassel schrieb:
Das Ding wurde gestern offiziell released und heute beschwerst du dich über fehlende Game Integrationen?
Muss man auch erst mal schaffen.
Das Ding kam gestern Open Source. Für Engines und Entwickler ist es schon lange draußen.
 
GOOFY71 schrieb:
Was stimmt mit dir nicht?🤣
Spass beiseite, die S Karten werden sicherlich sehr viel teurer und ausserdem stellt die 7900XTX das beste Preisleistungsverhältnis im Highend Segment dar, zusammen mit der RX 7800 XT in Mittelklasse und der RX 6800 für zeitweise unter 400€.
Btw AMD hat nochmal Stromverbrauch "gefixt" wundert das hier kein Nachtest ist von dem Treiber.

https://gadgettendency.com/radeon-r...azy-amd-has-fixed-the-idle-consumption-issue/

Naja der Fix ist wohl vor allem für 7600-7800 weniger für 7900, und Multimonitor kann immer noch ein Problem sein zum Glück ist das nur ne mini Minderheit die Multimonitor benutzt mit ner Spielekarte.
 
Zuletzt bearbeitet:
RogueSix schrieb:
Was sich aber wirklich schon weit über 100 Mio.-fach verkauft hat, nämlich inzwischen ca. 132 Mio. Exemplare, ist die Switch. Und zwar mit nVidia Tegra inside. So viel zu AMD's "100%" Marktanteil...
Wenn Mobile und Krümel-Grafik in Ordnung sind: mein Sohn spielt an einem Tablet mit Qualcomm-Chip. Wie viele Chips sinf im Umlauf? 😁
Ergänzung ()

MehlstaubtheCat schrieb:
Der FSR3 "Algorithmus" wurde auch ganz leicht verbessert, was der Bildqualität zu gute kommt, laut AMD.
Laut AMD. Ich selbst konnte keinen Unterschied feststellen. Zumindest bei statischen Elementen
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13454281&postcount=3689
 
rony12 schrieb:
dass MS dann Direct3D 12 entwickelte.
Das ist nicht so passiert. Brauchen wir jetzt schon eine Faktcheck Funktion wie auf Twitter für AMD/Nvidia/Intelfanbiys?

After details about DirectX 12 were made public, AMD has stated that they fully intend to support DirectX 12, but at the same time they claimed that Mantle "will [still] do some things faster." They have also claimed that due to similarities in the design philosophy of the two APIs, porting games from Mantle to DirectX 12 will be relatively straightforward,[45] and easier than porting from DirectX 11 to 12.[23]

Ultimately, AMD discontinued Mantle as a game API due to the similar aims of DirectX 12 and glNext (later renamed Vulkan).[5][6] AMD donated the Mantle API to the Khronos group, which developed it into the Vulkan API.[46][47][48][49][50][51]

https://en.m.wikipedia.org/wiki/Mantle_(API)
 
  • Gefällt mir
Reaktionen: MrHeisenberg und MehlstaubtheCat
Wunderbar AMD. Aus meiner Sicht ist das Upscaling nicht mehr weg zu denken und da AMD ja FSR Open Source ist, wird sich das durchsetzen. FSR ist für jedermann da….

Wo diese Close Software bei NVidia hinführt wissen wir ja. (Physic X, G-Sync….)
 
  • Gefällt mir
Reaktionen: jonderson
john.smiles schrieb:
Das ist nicht so passiert. Brauchen wir jetzt schon eine Faktcheck Funktion wie auf Twitter für AMD/Nvidia/Intelfanbiy

MS hat natürlich meist selber entwickelt, aber sie haben kleine Teile von Mantle fast 1:1 übernommen: "Error Checking" als Beispiel...die Doku damals war praktisch fast wortgleich. Zudem kam schon Mantle 2013 an die Öffentlichkeit! Microsoft hat erst 2014 es angekündigt für Windows 10. Mantle hat die Richtung vorgegeben und hat auch bei gewissen Teilen auch Ressourcen bei Microsoft gespart, den warum sollte man das Rad neu erfinden, wenn es schon ein gutes Konzept vorhanden ist und einfach übernommen wird.

Da AMD bewusst war wegen der Ähnlichkeit der API und der Marktmacht und die Anzahl der Softwareentwickler von Microsoft, war es eigentlich der richtige Schritt Mantle es in eine öffentliche Hand zu geben mit dem Ergebnis namens Vulkan.

TLDR: Direct3D 12 ist von Microsoft selbst entwickelt aber kleine Teile von Mantle fast 1:1 abgekupfert.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Wanderwisser, jonderson und up.whatever
!= bedeutet ungleich.
Er sagt dasselbe wie du.
 
  • Gefällt mir
Reaktionen: jonderson
###Zaunpfahl### schrieb:
Und deswegen ist mir AMD um einiges sympathischer... aber sowas ist für viele schwer zu verstehen die nur alles oder nichts können.
Ist meiner Meinung nach die schnellste Möglichkeit zu NVIDIA im Software Bereich anzuschließen. IMO die Einzige . Wenn du das Sympathisch findest, ich ja auch ist gut. Aber deswegen macht das AMD nicht.
 
Zurück
Oben