News FidelityFX Super Resolution: DLSS-Konkurrenz ab 22. Juni für AMD- und Nvidia-GPUs

Connsen27 schrieb:
Das ist Unsinn, Gewinnerzielung und -maximierung ist der Zweck aller am Kapitalmarkt tätigen Unternehmen. Dieser Zweck ist in sich maßlos, d.h. so etwas wie genügend Gewinn i.S. einer Obergrenze gibt es nicht. Mehr ist immer besser und bedeutet mehr Mittel, Marktmacht usw. Ein Unternehmen, welches anders handeln würde, würde über kurz oder lang verschwinden.
Naja so ganz ist das nicht, weil Gewinn ist ja das was übrig bleibt. Der geht in die Tasche weniger, man kann den Gewinn zusätzlich neu investieren oder in die eigene Tasche stecken.
Wenn von dem was nach Abzug allem übrig bleibt nur die Hälfte wäre ging es bei Nvidia niemandem schlechter....
Ergänzung ()

foo_1337 schrieb:
Die Reputation musst du dir halt erstmal erarbeiten. Wie gesagt, AMD ist bei Ryzen auf dem besten Weg dahin. Spätestens wenn Zen4 nicht enttäuscht, wovon wohl keiner ausgeht, wird es da ähnlich laufen. "Neue CPU? Klar, Ryzen" ohne groß auf Benchmarks zu schauen.
Weil die Ryzen ja auch besser sind als die Intel Prozessoren im Moment.
Nur kauften die Leute ja blind für 1600€ ne 3080 wo es zu der Zeit für 1400€ noch ne 6900XT gab, die sogar verfügbar war.
Das ist was anderes.
 
Zuletzt bearbeitet:
Fighter1993 schrieb:
Weil die Ryzen ja auch besser sind als die Intel Prozessoren im Moment.
Nur kauften die Leute ja blind für 1600€ ne 3080 wo es zu der Zeit für 1400€ noch ne 6900XT gab, die sogar verfügbar war.
Das ist was anderes.
Woher weißt du denn, dass alle die 3080 "blind" gekauft haben? Die 3080 hat auch einige Punkte, die für sie sprechen und weswegen man sich lieber diese anstelle einer 6900XT holt.
Neben der deutlich besseren RT Performance steht auch noch DLSS auf dieser Liste.
Gerade da hier FSR das Thema ist, bei der 6900XT ist es quasi die Katze im Sack gekauft, weil man noch nicht weiß wie gut FSR sein wird, bei der 3080 hat man DLSS2.0 und demnächst 3.0 aber sicher und hat zusätzlich genauso die Möglichkeit dort FSR zu nutzen, wo es kein DLSS gibt.
 
  • Gefällt mir
Reaktionen: Innocience, Laphonso, .Sentinel. und eine weitere Person
Fighter1993 schrieb:
Naja so ganz ist das nicht, weil Gewinn ist ja das was übrig bleibt. Der geht in die Tasche weniger, man kann den Gewinn zusätzlich neu investieren oder in die eigene Tasche stecken.
Wenn von dem was nach Abzug allem übrig bleibt nur die Hälfte wäre ging es bei Nvidia niemandem schlechter....
Ergänzung ()


Weil die Ryzen ja auch besser sind als die Intel Prozessoren im Moment.
Nur kauften die Leute ja blind für 1600€ ne 3080 wo es zu der Zeit für 1400€ noch ne 6900XT gab, die sogar verfügbar war.
Das ist was anderes.
Nö, ist es nicht, da die 6900XT nicht pauschal besser als die 3080 ist. Und ob ein 11400F pauschal schlechter als ein zen2 3600 bei gleichem Preis ist, würde ich so auch nicht sagen.. ist er nämlich nicht und trotzdem greifen viele wegen des guten Rufs zum Zen2. Bekomme ich oft genug sowohl im Privatumfeld wie auch hier im Forum mit. Aber wie gesagt: AMD hat sich diesen Ruf hart erarbeitet, eben wie nvidia auch.
Fighter1993 schrieb:
Naja so ganz ist das nicht, weil Gewinn ist ja das was übrig bleibt. Der geht in die Tasche weniger, man kann den Gewinn zusätzlich neu investieren oder in die eigene Tasche stecken.
Wenn von dem was nach Abzug allem übrig bleibt nur die Hälfte wäre ging es bei Nvidia niemandem schlechter....
Wie kann man nur so biased sein? Die Firma muss wachsen und das geht eben entweder organisch oder mit dem Zukauf von Firmen (ARM) oder einer Kombination von beidem. Und für beides braucht man Geld.
Schauen wir uns doch mal die Zahlen von beiden an:
Nvidia Umsatz im Q1: $5.7B
Nvidia Gewinn im Q1: $1.9B
Ratio 3

AMD Umsatz im Q1: $3.4B
AMD Gewinn im Q1: $0.6B
Ratio ca 5.5

Betrachten noch Q1 2020 von AMD:
AMD Umsatz im Q1'20: $1.8B
AMD Gewinn im Q1'20: $0.2B
Ratio von 9.

Wenn AMD also so weiter macht, kommen sie recht schnell in das Ratio von nvidia. Wirst du dann das selbe über AMD schreiben? Oder ist das dann Ok so weil das Unternehmen so sympathisch ist?
 
Also im Preisbereich von 1400 bis 1600 Euro für eine GK würde ich auch danach kaufen, was ich an Ausstattung haben möchte und nicht nach Preis. Die 200 Euro machen dann das Kraut auch nicht fett. :)
 
Ich bin vor kurzem zu Team Green gewechselt (3080 Ti) und kann den Hype um DLSS (noch) nicht nachvollziehen. Auf meinem 4k OLED sieht z.b cyberpunk für mich nur minimal besser aus als nativ auf 1440p. Ja gut ich kann dann bissel raytracing dazu ballern aber davon finde ich nur die Reflexionen nice to have.

Ich vermisse das Radeon Image sharpening. Damit hatte ich immer ein so knack scharfes Bild und Texturen sehen aus als hätten sie ein 4k Texture pack bekommen. Der Schärfefilter von Nvidia kommt da m.M.n nicht ran.

Naja jetzt habe ich noch ne 6900XT im drop gefangen und werde dann Mal schön vergleichen
 
  • Gefällt mir
Reaktionen: fullnewb und itsWinnfield
Ok. Ich finde die Liste sehr übersichtlich. Das hat aber den Vorteil, dass ich die Spiele schneller finde, die mich interessieren: Edge of Eternity, BG 3 und Resident Evil. 😉
 
Was mir auffiel ist, dass ihr das Performance-Plus immer auf die nächst niedrigere Einstellung bezieht. Sollte sich das nicht auf die Basis-FPS beziehen? Somit müsste die schnellste Option knapp 300% schneller sein als ohne Super....
 
foo_1337 schrieb:
Wenn AMD also so weiter macht, kommen sie recht schnell in das Ratio von nvidia. Wirst du dann das selbe über AMD schreiben? Oder ist das dann Ok so weil das Unternehmen so sympathisch ist?
Nein werd ich nicht.
Ich bin so baised weil das System Aktienmarkt nicht funktionieren kann.
Oder zumindest nur für sehr wenige.
Wie kann man wirklich glauben das ewiges Wachstum bei begrenzten Resourssen funktionieren kann.... Und nein ich bin nicht links.
Cyberpunk ist hier ein sehr gutes Beispiel wie der ganze bums mal Enden könnte.
Wenige große Konzerne die alles beherrschen ist es das was du möchtest?
 
  • Gefällt mir
Reaktionen: daknoll
Jetzt sehe ich zwar "Farming Simulator" in der Liste der Spiele, die demnächst Fidelity FX unterstützen, was mir aber persönlich wichtiger wäre ist ob der kommende Update von MS Flight Simulator das dann auch können darf. FS auf der Series X wäre nämlich der Hauptgrund, warum ich mich dann (wieder Mal) in die digitale Warteschlange stelle, um eine Series X zu ergattern. FS soll ja im Sommer endlich auf DX12 umgestellt werden, und dann auch für die Xbox Series X rauskommen. Wäre schön, wenn da dann ray tracing (Fidelity FX) gleich mit rein gebackenen ist.
 
  • Gefällt mir
Reaktionen: DaBo87 und surtic
Taxxor schrieb:
aber sicher und hat zusätzlich genauso die Möglichkeit dort FSR zu nutzen, wo es kein DLSS gibt.
Und warum hat man das?
Weil AMD den Standard offen gemacht hat, warum wissen wir ja alle.
Bei 80% zu 20% Marktanteil für Nvidia kann man schon sagen das die Masse da blind kauft, ey Kumpel hat dies gesagt Kumpel hat das gesagt.
Ich meine es funktioniert ja auch super mit der 3080.
Die meisten Leute haben das wissen was wir hier im Forum haben nicht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rezzer
Hmmm...ich habe keines der genannten Spiele und werde auch vermutlich keines innerhalb der naechsten drei Jahre kaufen (GOTY fuer nen 10er maximal und sowas kommt in unter drei Jahren nach Release selten vor). Werde ich mich wohl mit Benchmarks zur Vega 56 begnuegen muessen..

Edit: Ich sehe gerade dass Riftbreaker ne Demo hat.
Edit2: Ist Forspoken nicht PS5 Exclusive? Ist das vielleicht ein indirekter Leak fuer einen PC Release? XD
 
Zuletzt bearbeitet:
Otsy schrieb:
Ich wiederhole mich, wenn ich sage: Matschfilter werde ich nicht nutzen, weder in grün noch in rot.
Komisch ist es dass z.B. Outriders bei mir mit DLSS auf Qualität viel schärfer aussieht als ohne DLSS. Vorher sagte ich auch niemals mach ich das, da kann ich gleich mit niedriger Auflösung spielen.
 
  • Gefällt mir
Reaktionen: lynx007
Bei Outriders brauchst Du nur das inGame-Fps-Limit deaktivieren und in DX12 spielen.
Warum die UE4-Engine mit Fps-Limit und DX11 die Vegetation in der Enfernung vermatscht, who knows,
gibt eigentlich keinen Sinn.
Das 3. Bild war glaube mit Fps-Limit.
 

Anhänge

  • Grass@dx11.jpg
    Grass@dx11.jpg
    1,3 MB · Aufrufe: 293
  • Grass@dx12.jpg
    Grass@dx12.jpg
    1,7 MB · Aufrufe: 292
  • Outriders2@1800p-60Hz-Vsync.png.jpg
    Outriders2@1800p-60Hz-Vsync.png.jpg
    923,3 KB · Aufrufe: 287
  • Gefällt mir
Reaktionen: MujamiVice
Das sind übrigens die 44 Studios + Engines, die bisher mit im FSR-Boot sitzen. Sind aber auch einige große Publisher/Medien-Häuser dabei. Finde es nice wie AMD versucht viele mitzunehmen, sympathisch.

AMD-FidelityFXSS-Support-Studios-2.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Orok91, chaopanda, rumpeLson und eine weitere Person
GerryB schrieb:
Bei Outriders brauchst Du nur das inGame-Fps-Limit deaktivieren und in DX12 spielen.
Warum die UE4-Engine mit Fps-Limit und DX11 die Vegetation in der Enfernung vermatscht, who knows,
gibt eigentlich keinen Sinn.
Das 3. Bild war glaube mit Fps-Limit.
Ja ich benötige leider das FPS Limit da es sonst immer etwas ruckelt wenn die GSync Frequenz überschritten wird, da ab dann auf V-Sync geschalten wird. Normal hilft hier das V-Sync fast, aber bei Outriders leider nicht. Aber vielen Dank für den Tipp, werde es auf meinem zweit PC ausmachen, weil da ist nur Matsch und die GPU kennt kein DLSS
 
  • Gefällt mir
Reaktionen: GerryB
Und einfach die fps limitieren? (rtss?)
Schön z.B. bei einem 144 Hz Monitor auf 141fps max stellen und gut ist.
 
  • Gefällt mir
Reaktionen: GerryB
Ich bin da bezüglich der Qualität echt skeptisch. DLSS ist halt schon qualitativ echt ne Hausnummer. Aber wenn FSR gut ist - why not both? ich mein mit ner aktuellen Nvidia-Karte kann man ja dann halt beides.
 
  • Gefällt mir
Reaktionen: fullnewb
GerryB schrieb:
Bei Outriders brauchst Du nur das inGame-Fps-Limit deaktivieren und in DX12 spielen.
Warum die UE4-Engine mit Fps-Limit und DX11 die Vegetation in der Enfernung vermatscht, who knows,
gibt eigentlich keinen Sinn.
Das 3. Bild war glaube mit Fps-Limit.
Ich denke, es geht eher allgemein um die Filter, oder nicht? Denn FSR kommt halt qualitativ gerade mal auf die Einstellung die man bei DLSS bei Performance bekommt, wo alles auf den Bildern auch schon sehr matschig wird und bildtechnisch praktisch kaum einen Mehrwert bekommt.

Auch ich hasse Matchtexturen. Lange Zeit verzichtete ich sogar auf jegliches AA, weil mich der Treppeneffekt weitaus weniger störten als der "post" Weichzeichner der sich mit eingeschalteten AA übers Bild legt. Nur das Texturflimmern welches durch höhere Auflösung und durch stärkere Nutzung von Vegatationstexturen immer schlimmer wurdet, zwingt mich mittlerweile dazu AA aktiv zu lassen.

DLSS ist in der zweiten Version halt schon sehr stark. Hohe FPS durch niedrige Renderauflösung ohne Verlust eines hohen Detailgrades. Also scharfen Texturen, scharfen kannten, kein Texturflimmern und brauchbares Raytracing. Hört sich nicht nur auf dem Papier gut an, sondern scheint auch wirklich gut zu funktionieren. Vorausgesetzt, und damit noch einziger Krähenfuß, es wird auch unterstützt, sprich vom Entwickler vernünftig Implemeniert.

Da fand ich jetzt die erste Vorstellung von FSR dann doch schon sehr ernüchternd. Habe mir mehr erhofft. Mich wird es vermutlich nicht davon abhalten meine nächste GPU (nach 2 AMD und einer Ati) wieder eine nVidia wird. DLSS verbindet halt die Vorzüge von Down bzw. Supersampling mit Raytracing mit einer ein Spielbaren FPS.

Nicht falsch verstehen, ich bin auch kein Fan von proprietären Lösungen. Mir wären freie, aber dafür aber auch verbindliche Standards am liebsten. Aber zum Beispiel stehe ich jetzt gerade vor dem kauf mehrerer Monitore. Da spielen mehrer Faktoren eine Rolle. Auch adaptive Sync/Gsync, wen auch keine Große und ich empfinde die jetzige Marktsituation ist auf jeden Fall besser, als die wo es nur Gsync gab. Doch der Kunde hat bei einem Gsync oder bei einem zertifizierten Gsync kompatiblen Model immerhin die Gewissheit das diese beworbene Funktion auch ausreichend funktioniert.
Das hat man bei adabtive Sync oder auch nur Gysnc kompatbilen Modellen (aufpassen! Die nicht auch Zerfifiziert sind) leider manchmal nicht.
Oft funktioniert es trotzdem gut bis sehr gut und man spart sich das teurere Modul bzw. die Prüfung. Aber manchmal aber auch nicht! Sprich es ist für den Kunden noch verwirrender, den Gysnc kompatibel, bedeutet praktisch nur das zwar mit Gysinc und dem nVidia Logo beworben wird, aber man kennt die dreisten Hardwarehersteller, da wird halt oft "aufgerundet". Dass kann zufriedenstellend funktionieren, aber man hat nicht die Garantie, und immer öfters wird man da auch übersohr gehauen, weil da ein Produkt mit etwas Beworben wird was dann am ende nicht zufriedenstellend funktioniert. Da wird bei den Reaktionszeiten aufgerunderte, die sich im besten Fall am Mittelwert orientieren, oder an Monitor Overdriveeinstellung die in der Praxis gar nicht nutzbar sind.

Worauf ich raus möchte, nicht falsch verstehen, ich liebe immer mehr Linux und bin daher gar kein Feind von "freien" Lösungen. Aber, proprietäre Lösungen bieten halt oft den Garant das sie Funktionieren, weil dahinter eben auch eine Firma steckt, mit einem Trademark und einem Ruf und im besten Fall auch ein Qualitätsmerkmal sein kann an dem es keinem oder kaum einen weg vorbeigeht. Mittlerweile tendiere ich schon fast zum Gsync Modul, weil ich eben keine Lust habe, eine das ich einen Monitor kaufe, und dann mir ein Feature verkauft, das nur unzureichend funktioniert und ich dann das Gerät wieder reklamiern darf. Sprich der ganze damit verbundene Ärger und das drum herum.

Das war jetzt nur ein Beispiel was aufzeigen sollte das auch propiertäre Lösungen nicht nur schlechte Seiten haben. Um und wieder nach dem einem Schwenk auf Thema zu kommen, sorry für den Wall of Text. Ich hoffe ja wirklich, dass Sie mit FSR noch bisl Nachtziehen können. Mich hätte halt eine echte Hardware beschleunigte Lösung mehr begeistert. Vielleicht kommt die ja auch noch. Wen FSR an die Qualität und Leistung von DLSS auch so mal heranreichen kann, um so besser. Aber so ist halt DLSS für mich fast noch immer konkurrenzlos. Das einzige, was noch Fehlt ist, halt 3.0 die keine separate Titel Implikation mehr benötigten soll, sprich auf allen Titeln funktionieren soll. Wen Sie das auch noch schaffen, dann wäre AMD für mich zumindest wirkungsvoll ausgeknockt. Ich betone für mich und das ist nur eine Momentaufnahme, die halt auf die Möglichkeiten und theoretischen Leistung von DLSS beruht. DLSS ist halt der geilste Scheiß seit langem, seit SS, welches aufgrund den Leistungshunger nie zur kommerziellen Marktreife gereicht hat.

Allgemein finde ich aber Konkurrenz zu DLSS gut und hoffe das AMD bzw Intel da noch nachliefern. Was sie aber bis jetzt zeigen haut mich noch nicht wirklich vom Hocker.... Aber um Fair zu bleiben, es ist ja auch nur FSR 1.0. Da kommt sicher noch mehr, aber da werden vermutlich noch 2-3 Jahre ins Land ziehen bis für mich AMD eine wirkliche Alternative wird.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Colindo
Zurück
Oben