News AMD FidelityFX Super Resolution: DLSS-Konter „FSR“ erscheint vielleicht noch dieses Jahr

GERmaximus schrieb:
Es soll ja auch noch etliche Leute mit Ryzen2000 und Intel 4 Kernern geben, die die GPU aufrüsten.
Sie haben geläutet?
Gut ich hab 6 Kerne 😝

Und schon vorher wollte ich ne Rx6800Xt.
Das dauert aber wohl noch bis zum ende des jahres.
 
  • Gefällt mir
Reaktionen: GERmaximus
Begrüßenswert. Eine AMD Alternative wird ebenfalls wieder Nvidia anpingen.

4K Gaming und Ultrasettings UND RT-Raytracing sind mit dreistelligen Frames derzeit nicht machtbar, und ich glaube, dass das nativ sowieso nicht mehr möglich sein wird in aktuellen Games.

Auch ohne Raytracing ist es relevant:
Gerade Games, die man Richtung Monitor max Refreshrate befeuern will, profitieren erheblich von dieser Technik.
Der Performanceboost in Call of Duty Cold War dank DLSS 2.0 mit Quality ist irre.
Auf Knopfdruck >40% mehr fps.


Wie brauchen Ai+ML Techniken, und ein DLSS 3.0 wird vielleicht bereits pauschal alle nativen Auflösungen übertreffen. In der Ferne gerenderte Telefonleitungen und Kabel gehen in einer nativen Auflösung dennoch verloren, eine AI Technik kann sie aber abbilden.
Ich hoffe, dass AMD hier etwas Vergleichbares liefert.

NIOH2 DLSS 2.0 deutet an, was geht.

Je früher AMD hier ein Angebot schafft, um so mehr kommen auch die Entwickler in den Zugzwang, dass Raytracing + Upscaling auf dem Niveau von nativ + besser Teil der Grafikoptionen werden.

RDR2 oder The Division 2 mit Raytracing wären optisch noch grandioser als sie es jetzt schon sind. Und mit AI Upscaling fps Kompensation dann auch ohne xxxx Euro GPU machbar :) (für den "Mainstream" ^^)
 
GERmaximus schrieb:
Derzeit sind die Radeons in Sachen Leistung und Verbrauch besser als Nvidia, solange die Auflosung unter 4K ist. Ist dir das entgangen?

Das ist mir so pauschal gesagt einfach zu dünn und je nach Einsatz zu betrachten. In der Rasterization-Performance ist es abhängig vom Titel. Zieht man Features wie DLSS und RT hinzu, kehrt sich das schon wieder um. Ferner kann AMD auch in (semi)professionellen Anwendungen NV nicht ansatzweise das Wasser reichen.

Unter Berücksichtigung von DLSS bei vergleichbarer framerate und Qualität möchte ich behaupten, dass die Effizienz von Ampere "besser" ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: stevefrogs, Hardware_Hoshi, Khalinor und eine weitere Person
Wenn FSR wirklich auf allen GPUs läuft bin ich mal gespannt, was das auch für Xe bedeuten könnte. Wenn Intel zumindest einigermaßen konkurrenzfähig wäre und AMD mit der nächsten Generation wieder so abliefert wie bei der jetzigen könnte man damit genug Marktmacht haben, damit sich FSR relativ schnell etabliert. Sollte es technisch was taugen wäre das auch uns allen zu wünschen, damit nicht wieder so eine bekackte Situation wie bei GSync entsteht. Ich zumindest bin froh, die 3070 auch an meinem Freesync-Monitor richtig nutzen zu können.

Ansonsten beobachte ich das alles erstmal mehr oder weniger aus der Ferne. Das für mich einzig relevante Spiel mit DLSS habe ich mit CP2077 schon durch, ansonsten gibt der AAA-Markt momentan ja ohnehin wenig her, mal ganz abgesehen davon dass ich mir nicht vorstellen kann das irgendwann Monitore rauskommen, die mich dazu bewegen von 1080p aufzurüsten. DLSS ist für mich also schon kein Argument und ein vollkommen theoretischer Vorteil für nVidia, hoffentlich funktioniert das mit der "freien" Herangehensweise von AMD besser und auch abseits der seelenlosen, langweiligen AAA-Titel in kleineren Titeln. Bitte besser gestern als heute in Path of Exile, z.B.!
 
  • Gefällt mir
Reaktionen: katamaran3060
Stim
Iotis schrieb:
Ohne entsprechende Rechenkerne auf den Boards kann AMD das eh knicken. Da können die am Treiber werkeln bis der Arzt kommt.
Stimmt..ist ja bei PhysX auch so...oh..wait... Das läuft ja jetzt überall.

Das wird den gleichen Weg wie jede NV Lösung gehen, sobald ein freier Standard da ist.

Das zeigt die Erfahrung zu genüge. Von NV Features hat man nur in der Phase bis ein Standard etabliert ist etwas.
 
  • Gefällt mir
Reaktionen: LukS, Zitterrochen, Knutengore und 5 andere
.Sentinel. schrieb:
Sie haben also noch nicht mal eine feste Marschrichtung, sprechen aber jetzt schon von Release und was es alles kann.

AMD halt. Von "Kommt 2021", "Kommt 2022", über "Kommt 01/2022, funktioniert aber erst 6 Monate später" bis "Ach komm, wir lassen es bleiben" ist praktisch noch alles drin. Primitive Shaders@Vega anyone?
 
  • Gefällt mir
Reaktionen: stevefrogs, incurable, Khalinor und 2 andere
domian schrieb:
Das ist so pauschal gesagt einfach falsch.

Da es immer gewisse Abhängigkeiten und Ausreißer gibt, habe ich mich am allgemeinen Durchschnitt orientiert. Dieser wird derzeit hier auf ComputerBase unter Berücksichtigung diverser rot und grün freundlichen Titel getestet, bzw. Ermittelt.

Das es Ausnahmen gibt, mag ich nicht bestreiten, im allgemeinen Durchschnitt (siehe hierzu auch die cb Liste) ist meine Aussage aber korrekt.

Das es einzelne Titel mit dem Feature DLSS gibt, welche das Rating ändern bestreite ich nicht, repräsentieren aber nicht den Allgemeingültigen Durchschnitt.
 
Porky Pig schrieb:
Die Resourcen sollte AMD lieber dafür aufwenden einen KI Chip zu designen und dann die Software dafür entwickeln.
Du meinst so Chips wie Xilinx ebenso fertigt ? ;)

Es sollte jedem klar sein, dass AMD einen Ansatz wählen wird, der nicht auf NV Tensor Cores setzt, damit die Software überall lauffähig ist (Konsolen und GPUs). Denn dann wäre sie ja nicht mehr offen.
Genauso wenig wird AMD eventuell RDNA spezifische das Konzept aufbauen.
AMD wird also somit eine Lösung suchen, welche die Grafik-Hersteller alle verfügbar haben. Weiteres muss die Software ja auch in den Engines laufen. Und nicht jedes Studio wird gleich arbeiten. Siehe Konsolen. Da haben viele Studios für Konsolen eigene Algorithmen entwickelt, wie sie Bildqualitäten in den Konsolen Games verbessern. Sprich viele Köche und dann eben ein gemeinsamen Weg finden, ist keine Sache, die man von heut auf morgen macht.
Es ist eben das Gegenteil davon, ich entwickle für meine Hardware eine Software und bringe das dann zu den Kunden. Wobei Kunden auch nicht das richtige Wort ist. Jene Entwickler müssen abwägen, ob sie die Software dann einbauen. Wenn aber dann die Entscheidung da ist, eine open Source Lösung zu verwenden, die vllt nicht die selben Ergebnisse liefern, aber nahezu und der Mehraufwand aber nicht da, dann wird die Frage aufkommen, wo denn am Ende das Geld für das Projekt hinfließen soll, denn bekanntlich ist die Entwicklung von Games nicht billig. Im Gegenteil, wird immer teurer.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: marcgoenntsich, Shoryuken94 und edenjung
foo_1337 schrieb:
Ja, auf der CPU wenn es keine Cuda Karte ist.
Hab ich nicht abgestritten. Es ist aber nunmal nicht so, dass es ausschließlich mit NV- Technologie möglich ist - auch wenn gern so getan wird ;)
 
HAse_ONE schrieb:
Also manche Kommentare... überhaupt keinen Dunst haben, von Hardware-Entwicklung, Treiber etc. Entwicklung und dann AMD Unfähigkeit unterstellen.
Bzgl. der Besserwisser Kommentare stimme ich dir absolut zu. Aber hier geht es halt nicht um Hardware, sondern um Software. Und da war AMD in der Vergangenheit tatsächlich deutlich schlechter als Nvidia aufgestellt, was einfach auch in der Natur der Sache liegt.
Ich für meinen Teil unterstelle hier AMD keine Unfähigkeit, sondern einfach Mangel an Erfahrung, ganz einfach. Das ist auch evident, da sie in dem Thema sehr spät dran sind und die letzten Jahre einfach die Kohle dafür gefehlt hat. Sie mussten das was sie an Ressourcen haben priorisieren und das ist ihnen mit RDNA auch sehr gut gelungen. Jetzt müssen sie eben aufholen, aber das geht halt nicht von heute auf morgen. Immerhin dürften die R&D Budgets ab jetzt deutlich höher ausfallen.
 
  • Gefällt mir
Reaktionen: Tanzmusikus, Innocience, Herdware und eine weitere Person
iNFECTED_pHILZ schrieb:
Leistung ist auf Augenhöhe und Effizienz ist sogar höher im Vergleich zu Nvidia.
Die Leistung hängt sehr von der Auswahl der Titel ab, wie man gestern wieder sehr schön bei den 6700 XT reviews sehen konnte. Je nach eigenem Spielgeschmack kann da natürlich alles von Ampere-Dominanz bis RDNA2-Dominanz herauskommen, entsprechend günstig oder ungünstig sieht dann auch der Verbrauch aus.

Am Ende sind selbst diese Unterschiede völlig egal, wenn man als Käufer in der Regel keine Wahl und maximal Sekunden Zeit zum Überlegen hat.
 
Ich brauche das nicht - wenn es irgendwann kommt möchte es dann aber bitte problemlos funktionieren. Von daher und nur für mich gesprochen: AMD kann sich da Zeit lassen.
 
  • Gefällt mir
Reaktionen: marcgoenntsich, Knutengore, danyundsahne und 2 andere
GERmaximus schrieb:
Hm also klingt das für mich nach einer Losung für alle Games, dafür aber auch erst entsprechend spät.

Kann man jetzt in beide Richtungen finden.
Aber 2022🤨
Eigentlich habe ich da deutlich früher mit gerechnet.
Um es eben für alle Spiele nutzbar zu machen braucht es Zeit.

Stell dir vor nvidia hätte gewartet bis alle games dlss können, dann waren sie heute noch nicht am Markt.
 
Glaskugeln günstige Glaskugeln, falls eure mal nicht geht oder runterfällt! Günstige GLASKUGELN!
Einige hier brauchen glaube ich eine neue.

Mir ist in der aktuellen Situation echt egal wie lange ein Feature braucht, das es eh nur braucht damit Raytracing nicht im Performance Keller versinkt. Wie einige hier tun als wäre es ein Weltuntergang das AMD das später bringt. Das ist wie bei der 2000er Generation mit Raytracing wenn das für jemanden ein Kauf Argument ist, ok aber ansonsten macht euch ein leckeres heiß Getränk und schaut zu.
Es ist ja nicht so das ohne dieses Feature alles Unspielbar und die Performance absolut schlecht ist.
 
  • Gefällt mir
Reaktionen: Quinaset und danyundsahne

foo_1337

Könnte auch Erfahrung sein. Siehe Umsetzung Mantle vs Umsetzung FreeSync.
Mantle hat AMD auch mit einem Entwicklerstudio gemacht. FreeSync selbst baut auf einen Standard auf, der bei jeden Monitor verbreitet war den NV dann auch nutzen konnte.
Somit es macht keinen Sinn, wenn AMD nur einen Partner sucht und dann etwas umsetzt um das dann bei anderen auszurollen, die dann aber Contra geben weil sie da oder da gerne Anpassungen haben wollen oder Gründe haben, wieso gewisse Dinge anders in ihrer Engine implementiert werden müsste. Nur mal so naiv gedacht.
 
Ist ja auch klar, dass AMD hier nicht sofort mit Nvidia gleichziehen kann. AMD hat einen Bruchteil von Nvidias Umsatz und Gewinn und das für das Gesamtunternehmen, wo CPU und GPU drin ist. Dabei muss AMD aber mit Nvidia und gleichzeitig mit Intel kämpfen.

Dass man dann hier AMD Unfähigkeit etc. unterstellt, weil sie nicht sofort mit Nvidias Featureset konkurrieren können, ist einfach falsch. Irgendwo muss AMD eben Prioritäten setzen. Nvidia hat wahrscheinlich fast so viele Mitarbeiter an so kleinen Features Arbeiten wie AMD in der kompletten GPU Sparte hat.
 
  • Gefällt mir
Reaktionen: marcgoenntsich, Tanzmusikus und danyundsahne
Fighter1993 schrieb:
Um es eben für alle Spiele nutzbar zu machen braucht es Zeit.
Stell dir vor nvidia hätte gewartet bis alle games dlss können, dann waren sie heute noch nicht am Markt.
Schau dir einfach das Interview an. Danach weißt du, dass das auch hier nicht der Fall sein wird.
 
Irgendwie habe ich als Laie das Gefühl dass AMD nur noch hinterherhinkt mit den ganzen Innovationen egal ob DLSS oder Raytracing. Das gleiche war mit g-sync....
 
  • Gefällt mir
Reaktionen: Affe007
incurable schrieb:
Die Leistung hängt sehr von der Auswahl der Titel ab, wie man gestern wieder sehr schön bei den 6700 XT reviews sehen konnte. Je nach eigenem Spielgeschmack kann da natürlich alles von Ampere-Dominanz bis RDNA2-Dominanz herauskommen, entsprechend günstig oder ungünstig sieht dann auch der Verbrauch aus.
Das ist alles richtig ,hat nur nichts mit deiner oben getätigten Aussage zu tun.du sprachst von einem Leistung äs und Effizienzproblem , welches halt nicht existent ist. Features ja ,klar. Der Rest ist humbuck, da hilft auch kein nachträgliches Relativieren
 
Zurück
Oben