News AMD FidelityFX Super Resolution: DLSS-Konter „FSR“ erscheint vielleicht noch dieses Jahr

@Taxxor so sehe ich das auch. Schaut man sich das us original transcript an:
It’s progressing very well internally in our lab, but it’s our commitment to the gaming community that it needs to be open that it needs to work across all things and game developers need to adopt it.
Das ist schon sehr eindeutig finde ich. Es muss offen sein und es muss mit allem (amd, nvidia und zukünftig Konsolen) funktionieren und die Devs müssen es jeweils implementieren.
 
.Sentinel. schrieb:
Und das ist ja DER Hauptkritikpunkt der Userbase, nämlich dass es eine explizite Implementierung braucht und man darauf angewiesen ist, dass diese adaptiert wird.

Insofern ist es dann auch wurst, ob ich die AMD lösung nehme, oder die proxy DLL von Nvidia anspreche.
Hmmm ich nehme den Hauptkritikpunkt aktuell eher so wahr, dass es eben nur mit Nvidia GPUs funktioniert, und da auch nur mit der RTX Serie.
Denn DLSS wird ja als Kaufargument für diese Karten angesehen.

Wenn AMDs Implementerung zwar auch in den einzelnen Spielen eingebaut werden muss, dann aber von der RX480 über die GTX970 bis zur 6900XT genutzt werden könnte, es somit egal ist, welche GPU ich kaufe, dann ist das schon ein Unterschied.
Denn dann kann jeder das Feature nutzen in den Spielen, in denen es implementiert wird und wo es nicht implementiert wird, kann es auch keiner nutzen, womit die GPU Wahl hier ebenso egal ist.
 
  • Gefällt mir
Reaktionen: Tanzmusikus
Taxxor schrieb:
Wenn AMDs Implementerung von der RX480 über die GTX970 bis zur 6900XT genutzt werden könnte, dann ist das schon ein Unterschied.
WENN es denn die gewünschten Ergebnisse liefert und wenn auch ohne dedizierte Einheiten ein entsprechender Geschwindigkeitschhub zu verzeichnen ist.

Klar wäre es toll, wenn die Leistung mir nichts dir nichts vom Himmel fallen würde.
Nur darf man dabei nicht vergessen, dass da bei NVIDIA concurrent doch das eine oder andere Teraflop durch die Tensor- Cores zusätzlich zum Tragen kommt.

Ich drück gerne die Daumen, dass das was wird.
 
Wenn das Ding mal releast ist, kann ich mir immer noch Gedanken machen.
Bis jetzt liest man nur Gezanke um ungelegte Eier. Mit DLSS frühstücke ich schon.
 
DaHell63 schrieb:
Bis jetzt liest man nur Gezanke um ungelegte Eier. Mit DLSS frühstücke ich schon.

Exakt, eine Nvidia GPU ist aktuell die "sichere" Variante.
Denn hier hat man DLSS bereits in verfügbaren Titeln und weitere werden folgen. Und selbst wenn wider erwarten FSR in irgendeiner Weise besser sein, oder auch einfach nur in viel mehr Spielen eingebaut werden sollte, kann man es dann ja auch einfach mit seiner Nvidia Karte nutzen.
Also kann FSR den Nvidia Nutzern nur Vorteile für die Zukunft verschaffen, während die aktuellen AMD Nutzer erst mal gar nichts haben.
 
  • Gefällt mir
Reaktionen: Shoryuken94 und owned139
incurable schrieb:
Na ein Glück, dass dieses Jahr eh niemand über sowas langweiliges wie "Leistung", "Verbrauch" oder "Features" nachdenken kann, sonst wäre AMDs Radeon Abteilung mal wieder in argen Schwierigkeiten.
Ihr NVIDIA Fanboys seid wie immer schlecht informiert. AMD liegt in der Effizienz dieses Mal vor NVIDIA.
 
Zuletzt bearbeitet:
Also ich sehe hier nur einen roten Fanboy, der nicht kapiert, dass es sich auf die Liefersituation bezieht..
 
Salamimander schrieb:
Also ich sehe hier nur einen roten Fanboy, der nicht kapiert, dass es sich auf die Liefersituation bezieht..
Ähm, was hat die Liefersituation mit dem Verbrauch zu tun?
 
Beide GPUs vor und Nachteile
Vram Krüppel Nvidia (bis auf 3090/1500€ UVP)
Rt Krüppel Amd

kommt nur die Frage was zuerst limitiert für mich ist Amd die bessere Wahl.
Der Vram der 3080er meiner Frau limitiert jetzt schon heftig also für die Zukunft ist die nix.
Und Rt spielt für die 5-6 spiele so oder so keine Rolle also meiner Meinung nach.
 
  • Gefällt mir
Reaktionen: Tanzmusikus
So lang AMD keine DLSS Alternative hat, ist Raytracing kaum zu gebrauchen.
Allerdings spielt Raytracing jetzt noch nicht so eine große Rolle.
 
Naja die dlss Alternative kommt sicher noch aber bei 10GB bzw 8 GB Grafikspeicher sehe ich eher den Wurm ich frage mich warum da so abartig gegeizt wurde ?
 
Ausser bei der Titan war NVIDIA schon immer recht geizig bei der VRAM Dimensionierung.
Die AMD Karten sehen auch viel besser aus :-)
 
Finde ich schade das die bei so net Monster Karte nur 10 GB verbauen und wie schon gesagt wenn rt in Zukunft ne Rolle spielt ist das zu wenig vor allem in WQHD oder 4K 😅
 
DrFreaK666 schrieb:
Dagegen spricht dass es auf den Konsolen laufen soll.

Und wenn es nicht auf den Konsolen läuft, kräht auch kein Hahn danach.
Sie werden trotzdem gekauft. Gibts halt entsprechend weniger Details und Leistung.
 
MeisterMario94 schrieb:
wenn rt in Zukunft ne Rolle spielt ist das zu wenig vor allem in WQHD oder 4K 😅

Naja im Gegenzug ist die RT Leistung der 6900XT schon heute zu gering für 4K und in manchen Titel auch WQHD
 
Shoryuken94 schrieb:
Naja im Gegenzug ist die RT Leistung der 6900XT schon heute zu gering für 4K und in manchen Titel auch WQHD
In manchen Spielen ist die RX 6900 XT sogar schneller mit Raytracing ohne DLSS, als die RTX 3090.
Und da die Konsolen auch RDNA 2 haben, sehe ich da noch Potential für die NAVI Karten.
Und wer spielt schon in 4K, wahrscheinlich schaust du dir auch Diashows an. Außerdem meinst du wahrscheinlich UHD und nicht 4K.
 
Naja ich hab gelesen das z.B Horizon Zero Dawn schon an die 11GB an Gpu Speicher saugt und andere spiele auch schon in WQHD und dan noch wenn man bedenkt das die Spiele für Ps4 sind will ich gar nicht erst an die Zukunft bei den Karten denken 🧐
 
Tom_111 schrieb:
In manchen Spielen ist die RX 6900 XT sogar schneller mit Raytracing ohne DLSS, als die RTX 3090.

Ja in 1-2 Edge Cases ist das so. In der Masse siehts gaaaaaaaanz anders aus. Und es sind Spiele mit allgemein sehr komischen verhalten. Jede objektive Analyse der RT Leistung von RDNA2 kommt zum Schluss, dass Ampere deutlich schneller ist.

Eine nette Aufschlüsselung sieht man z.B. in diesem Video:

Tom_111 schrieb:
Und wer spielt schon in 4K, wahrscheinlich schaust du dir auch Diashows an.

Wo habe ich geschrieben, dass ich in 4K Spiele. Richtig. Nirgendwo. Wenn man schon Zitate hernimmt, dann sollte man auch gucken, auf was Sie sich beziehen. Davon ab kann man recht flüssig in 4K spielen, wenn man ein paar Sekunden in optimierte Settings steckt.

Ich rieche da so ein wenig einen 6900Xt Besitzer der nicht wahrhaben kann, dass sein neues Spielzeug halt nicht in allen belangen der heilige Gral ist. Da kommen dann solche Argumente wie.... Ja aber in Spiel XY ist die schneller als eine 3090. Lass mich raten, du kennst auch noch die drei spiele auswendig, in denen die Vega 64 schneller war, als die 1080Ti ;)
 
Shoryuken94 schrieb:
Ja in 1-2 Edge Cases ist das so. In der Masse siehts gaaaaaaaanz anders aus. Und es sind Spiele mit allgemein sehr komischen verhalten. Jede objektive Analyse der RT Leistung von RDNA2 kommt zum Schluss, dass Ampere deutlich schneller ist.

Eine nette Aufschlüsselung sieht man z.B. in diesem Video:

Wo habe ich geschrieben, dass ich in 4K Spiele. Richtig. Nirgendwo. Wenn man schon Zitate hernimmt, dann sollte man auch gucken, auf was Sie sich beziehen. Davon ab kann man recht flüssig in 4K spielen, wenn man ein paar Sekunden in optimierte Settings steckt.
Ich bevorzuge 27" WQHD mit zur Zeit 120 Hz, mein Monitor geht bis 240Hz.
Bei der nächsten Generation wird AMD die Shaderanzahl wahscheinlich verdoppeln. Dann sollte genug Rechenleistung zur Verfügung stehen.
Shoryuken94 schrieb:
Ich rieche da so ein wenig einen 6900Xt Besitzer der nicht wahrhaben kann, dass sein neues Spielzeug halt nicht in allen belangen der heilige Gral ist. Da kommen dann solche Argumente wie.... Ja aber in Spiel XY ist die schneller als eine 3090. Lass mich raten, du kennst auch noch die drei spiele auswendig, in denen die Vega 64 schneller war, als die 1080Ti ;)R
Mit der GTX 1080 kann sie gut mithalten.
Bezügl. 1080 Ti habe ich da nur Forza 7 gefunden.
 
Zuletzt bearbeitet:
Zurück
Oben