News DLSS 4 Super Resolution & DLAA: Das bessere „Transformer Model“ ist keine Beta mehr

Nighteye schrieb:
Nicht um Lossless Scaling hervorzuheben, sondern um zu zeigen wie niedrig die AFMF Latenz ist, als Kontext für die weiteren Informationen in meinem Post.
Daher habe ich Lossless Scaling auch 0x erwähnt.
Gib´s auf ! Ist genau seine Masche. Alles fehl oder nach Gusto zu interpretieren und dann sollst noch Argumente/Belege vorweisen für Sachen, die Du so nie gesagt/geschrieben/behauptet hast ... :freak:
 
  • Gefällt mir
Reaktionen: Nighteye
ElliotAlderson schrieb:
Du merkst echt gar nichts mehr...
Aber ja ich Kaufe nur AMD Hardware. Und dennoch habe ich Geforce Karten sehr viel öfter Positiv dargestellt als du Radeon Karten. Geforce hat schon ewig die bessere Architektur und das bessere Gesamtpacket was Software betrifft.
Nvidia ist einfach viel besser und Stärker. DLSS 4 ist viel verbreiteter und Super.
DLSS 2 & 3 war schon schöner als FSR 3 usw. Kann ich alles zugeben.
Ich würde sogar aktuell nur zu Intel 265K raten für Leute die einen Neuen Rechner bauen wollen.
Intel hat auch die besseren CPU,s im gesamtpacket wie ich finde. X3D ist zwar für Gaming besser aber überteuert. Und es ist in den meisten fällen weiser auf Geforce Hardware zu setzen, und in vielen fällen auch weiser auf Intel Hardware zu setzen.
ElliotAlderson schrieb:
Nein ist sie nicht.
Doch ist sie.
Schau dir dieses Video an.
Ca Gleich viel fps, und dennoch hat FSR Framegen deutlich weniger Latenz. (Niedrigere Frametimes)
 
Zuletzt bearbeitet:
@Nighteye in dem Video ist keine Latenz zu sehen (Frametime ≠ Latenz).
Außerdem ist das nicht FG vs FG, sondern DLSS mit FG vs FSR mit FG.
Der Overhead von DLSS und FSR ist nicht gleich -> Äpfel und Birnenvergleich, mal wieder.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77
Euer Off-Topic-Kindergarten-Exkurs nervt irgendwie...🙄
 
  • Gefällt mir
Reaktionen: Quidproquo77, KenshiHH, Tr8or und eine weitere Person
SweetOhm schrieb:
Deswegen hab ich ja die HW Kastrierung der Chips moniert. Schimpft sich geplantes/gewolltes Upscaling ...
Was genau der größte Chip ist, kann Nvidia selbst beeinflussen. Einfach keine Titan oder 3090 Ti rausbringen und schon bessert sich das Verhältnis. Das ist auch nicht der Sinn der Sache.

Wenn es so wäre, hätte AMD ja jedes mal leichtes Spiel mit seinen "hochwertigen" Chips, aber dem ist ja nicht so. Das, was eine 6900 XT vorher geschafft hat, nämlich es mit 95 % der CUDA Kernen aufzunehmen, schafft die 7900 XTX nur mit Mühe die 53 % zu knacken.

Du kannst an den Kernen sparen, weil sie nicht gut skalieren und dafür den L2 ausbauen oder schnelleren Speicher verwenden oder in Software Features investieren. Relation der Kerne ist nur ein Anhaltspunkt. Du zahlst für die gesamte Karte bzw. Endleistung und nicht nur für die Kerne.
 
  • Gefällt mir
Reaktionen: Quidproquo77
dampflokfreund schrieb:
Das hab ich schon versucht. Ich muss tatsächlich auf 36 oder weniger runtergehen damit sich die Performance angleicht und das sieht einfach nicht gut aus.

Das Transformer Modell lohnt sich nicht für mich, was aber auch in Ordnung ist schließlich ist das eine alte und schwache GPU. .
Das ist interessant da deine Hardware nicht weit von einer Switch 2 weg ist.
Hast du noch andere Spiele getestet?
 
Wenn man sich so die Weisheiten einiger Nutzer reinzieht dann frage ich mich wirklich, warum NVIDIA bzw. AMD nicht diese Experten einstellt.

In 1 - 2 Jahren ist das perfekte Produkt auf dem Markt und es gib nicht‘s mehr zu meckern…

Wobei, dann gibt’s keine tolle Lektüre mehr…

Vergesst es, war nur ein verwirrter Gedanke in der Urlaubszeit ;-)
 
Vigilant schrieb:
Euer Off-Topic-Kindergarten-Exkurs nervt irgendwie...🙄
Das ist das Ziel von den beiden. So lange mit Falschinformationen um sich zu werfen bis jeder die Lust verliert.
NguyenV3 schrieb:
Was genau der größte Chip ist, kann Nvidia selbst beeinflussen. Einfach keine Titan oder 3090 Ti rausbringen und schon bessert sich das Verhältnis. Das ist auch nicht der Sinn der Sache.
Das Verhältnis ist bei AMD auch nicht besser und wenn es besser ist, dann ist die Gesamtleistung schlechter und oder das Featureset. Seine "Kritik" ist unter dem Strich also belanglos, es sei denn er kritisiert beide Hersteller "Popelkarten" im Einstiegssegment zu bringen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: NguyenV3 und ElliotAlderson
bitte FSR nur erwähnen wenn es direkt mit dem hier diskutierten nvidiaäuquivalent verglichen wird. alles andere ist der diskussion nicht dienlich
 
  • Gefällt mir
Reaktionen: Zuchtmaista und ElliotAlderson
Frage zu DLSS 4, da ich es in den Artikeln hier auf CB nicht ganz herauslese:

  • ist die NVIDIA App nun Pflicht?
  • muss DLSS 4 immer erzwungen werden?
  • taucht es nicht im Gaming Menü nativ auf?
  • kann/sollte ich jetzt bei jedem einzelnen Spiel DLSS 4 erzwingen wo DLSS 3 als Basis vorliegt? Und macht das grundsätzlich Sinn? Oder Fall zu Fall Entscheidung?
 
  • Nein, Tools wie NvidiaProfileInspector, DLSS-Swapper/Updater etc. funktionieren weiterhin
  • Sofern nicht direkt vom Spiel unterstützt und ausgeliefert, ja.
  • Nur wenn bereits unterstützt. Und auch dann lohnt es sich, die ausgelieferte Version zu überprüfen und ggf. auszutauschen.
  • Grundsätzlich ja, weil DLSS4 Transformer die bisher beste Qualität abliefert.
 
  • Gefällt mir
Reaktionen: Zuchtmaista, qiller und BloodGod
Vigilant schrieb:
  • Nein, Tools wie NvidiaProfileInspector, DLSS-Swapper/Updater etc. funktionieren weiterhin
Im Umkehrschluss heißt das aber, ein erzwingen/überschreiben ist definitiv erforderlich, ob es nun der Inspector/Swapper ist oder NV App - geschenkt.

Sofern halt nicht nativ implementiert.
 
Zuletzt bearbeitet:
Sofern nicht die aktuellste Version direkt ausgeliefert wurde, ggf. per Update, ja.
 
  • Gefällt mir
Reaktionen: BloodGod und ElliotAlderson
BloodGod schrieb:
ist definitiv erforderlich
Nein, nur wenn das Spiel DLSS4 noch nicht nativ unterstützt. Guck dir doch mal Cyberpunk 2077 an, da wurde mit dem letzten Patch das Transformermodell eingebaut und du kannst in den Game-Settings zwischen Transformer- und CNN-Model wechseln.
 
  • Gefällt mir
Reaktionen: Zuchtmaista und BloodGod
Taxxor schrieb:
Denn das war ja damals die technische Begründung, warum man es nicht für die 3000er gebracht hat.
Und das ist ganz einfach eine Lüge!
Die WOLLEN ja, dass die Leute "neue" Generationen kaufen, auch wenn sie sagen, dass Gaming uninteressant sei.

TheInvisible schrieb:
Echt jetzt?!
Ist das KOMPLETT an dir vorbeigegangen?
Also die UNZÄHLIGEN Videos auf YouTube zu diesem Thema?
Um nur mal einige "große" zu nennen, die das sogar "intensiv" angesprochen haben... Der 8auer, Gamers Nexus, Hardware Unboxed und noch unzählige andere!

Andererseits verständlich, dass man bei der Masse an Shitstorm den Nvidia hatte, 1-10 Themen nicht mitbekommen! 🤣
 
q3fuba schrieb:
Und das ist ganz einfach eine Lüge!
Die WOLLEN ja, dass die Leute "neue" Generationen kaufen, auch wenn sie sagen, dass Gaming uninteressant sei.
Dann hätte man auch sagen können, DLSS4 Upscaling kommt ebenfalls nur für RTX 4000 aufwärts oder besser noch nur für RTX 5000 aufwärts.

Das alte FG Modell hat halt mit den OFAs gearbeitet, die zwar auf Ampere vorhanden, bei Ada aber deutlich stärker sind.
Dazu hatte Nvidia auch mal Zahlen veröffentlicht, wie lange es dauert, einen Frame zu generieren und dabei wäre maximal noch die 3090 in der Lage gewesen, das schnell genug zu tun, um die reale Framerate nicht zu sehr absenken zu müssen.

Mit dem neuen FG Modell werden die OFAs aber nicht mehr genutzt und es läuft komplett auf den Tensor Cores, bei denen der Unterschied zwischen Ampere und Ada nicht so groß ist, wie bei den OFAs, daher ist es nun auch möglich, 2X FG mit annehmbarer Performance auf Ampere laufen zu lassen.

Ob und wann sie das wirklich tun, steht natürlich in den Sternen.
 
q3fuba schrieb:
Echt jetzt?!
Ist das KOMPLETT an dir vorbeigegangen?
Also die UNZÄHLIGEN Videos auf YouTube zu diesem Thema?
Um nur mal einige "große" zu nennen, die das sogar "intensiv" angesprochen haben... Der 8auer, Gamers Nexus, Hardware Unboxed und noch unzählige andere!
Das waren nur influencer die auf den shitstorm Zug aufgesprungen sind, da Lob ich mir CB oder pcgh die wenigstens seriös bleiben (der8auer auch ohne irgendwelche blöde Aufmachung). Komischerweise nutzt aber jeder davon die 5090 als Referenz bzw CPU vergleiche, da sind's wieder gut genug dafür. Anderswo würde man das heuchlerei nennen.

Nvidia tut mehr für die PC gaming Community als AMD, die Releasen quasi im Monat so viele dlss4 Games wie es AMD insgesamt seit rdna4 getan hat
Ergänzung ()

q3fuba schrieb:
Und das ist ganz einfach eine Lüge!
Die WOLLEN ja, dass die Leute "neue" Generationen kaufen, auch wenn sie sagen, dass Gaming uninteressant sei.
Die 3000er hatten keine ofa Einheit, das ist Fakt. Einfach mal vorher informieren bevor man irgendwas behauptet
 
TheInvisible schrieb:
Die 3000er hatten keine ofa Einheit, das ist Fakt.
Die 3000er hatten OFA Einheiten, sie waren nur nicht stark genug um es für die ganze Gen umzusetzen, und FG dann bei den 3000ern nur für 1-2 Modelle zu bringen, wollte man wohl nicht
 
Zurück
Oben