News KI-Upscaling: XeSS 1.3 legt bei der Qualität zu, aber trickst bei den FPS

Trelor schrieb:
Ich finde die Zahl der Pixel mit denen der Algorithmus dann arbeitet schon essenziell.
Essentiell für was? Abseits vom Anhaltspunkt, welche Presets du miteinander vergleichen willst, fällt mir da wenig Nutzen ein (Und da reicht die Renderauflösung doch völlig). Wirklich Relevant ist doch nur das Ergebnis - Bildqualität, Latenz, FPS, etc. Da kann auch ein Algorithmus, der mit deutlich weniger Daten gefüttert wurde besser aussehen. Die Datenmenge mag interessant sein, aber für was genau soll die essentiell sein?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77 und incurable
Finde ich auch verwirrend, dass Intel da jetzt aus der Reihe tanzen muss. Nun muss man sich merken, dass man bei XeSS eine Stufe höher stellen muss um Bildvergleiche zu machen.

XeSS selbst finde ich recht gut und sehe Potential, dass es über kurz oder lang FSR sogar einkassiert.
 
  • Gefällt mir
Reaktionen: Czk666
eazen schrieb:
Da so gut wie keiner Intel GPUs benutzt ist es fraglich wie die Qualität mit anderen GPUs ausfällt da dort bekanntlich eine andere Option benutzt wird, die schlechter ist.
kannst du selber ausprobieren. Brauchst nur ein spiel welches Xess unterstützt. Da kannst du zumindest den vergleich zur vorherigen xess version prüfen. Brauchst nur die Dll austauschen wie bei Nvidia.
https://github.com/intel/xess/tags

nur im Hinterkopf behalten das sich das Scaling geändert hat. Da die momentane version in den spielen nicht doviel suswahl hat.
alte Xess version quality ist somit die gleiche render auflösung mit Ultra Quality. faktor 1.5.

Ich habe es z.b mit cyberpunkt getestet. ich würde dieses spiel auch lieber mit xess als mit fsr2.1 spielen mit meiner Amd karte.

bei Starfield würde ich sber eher FSR3 bevorzugen als xess.

bei „the Thaumaturge“ ist ohne upscaler besser. FSR3 umd Xess bieten beide unterschiedliche grafik probleme.
 
Intel trickst?!
Muss wohl ganz Neu sein :lol:
 
  • Gefällt mir
Reaktionen: Slim.Shady und SweetOhm
"ist das Vorgehen nicht per se zu kritisieren"

Bei INTEL ? Niemals !! Das sind doch "Real World" Benches OHNE jeglichen Interpretationsspielraum !!!

p.s. Die alles entscheidende Frage ist doch : wer "bescheißt" am Besten und wie viele Fans kaufen es ab und verteidigen es auf Teufel komm raus (untere Schublade wird geöffnet). :lol:
á la meine Firma "bescheißt" auch, aber sieht (durch die Brille) viel "besser" aus ...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Eller und Obvision
gustlegga schrieb:
seit AMD den ersten Slot-A Athlon rausgebracht hat.
... und AMD/Nvidia shiften "ab und an" ihre GPU-"Klasseneingruppierungen". ^^

Seit der letzten "wahren" Werbeaussage "Raider heißt jetzt Twix - sonst ändert sich nix" hat sich die bestmögliche Verschleierung der tatsächlichen Generationsunterschiede von Produkten zur Königsdisziplin des Marketings verschlechtert entwickelt. Ob sich das, um nur zwei Beispiele zu nennen, auf verpackte Lebensmittel oder Tech-Produkte bezieht, ist dann eigentlich nur noch Nebensache.

Daher: Es lebe der Kilogrammpreis bzw. das, was hinten rauskommt. ^^
 
  • Gefällt mir
Reaktionen: SweetOhm, Slim.Shady und nciht
nciht schrieb:
(Und da reicht die Renderauflösung doch völlig).
nciht schrieb:
Die Datenmenge mag interessant sein, aber für was genau soll die essentiell sein?

Die Renderauflösung der Teilbilder ist doch in sofern interessant, dass die Anzahl der Pixel mit denen dann für die Bildberechnung gearbeitet werden kann erhöht wird, also die Datenmenge für den Algorithmus. Die Anzahl der Teilbilder die Verarbeitet werden ist dafür neben der Auflösung der Teilbilder die andere Variabel.
 
Trelor schrieb:
Die Renderauflösung der Teilbilder ist doch in sofern interessant
Das beantwortet die Frage nicht.

Wirklich essenziell zum Vergleichen der Algorithmen ist ja nicht mal die Renderauflösung. Dafür muss ich nur die Ergebnisse sehen. Die Auflösung dient eben nur als Anhaltspunkt welche Presets ich vergleiche (dafür könnte man die als "essenziell" erachten). Wofür soll aber bitte die genaue Datenmenge essenziell sein (welche die Anzahl der Frames beinhaltet), was dir so enorm wichtig scheint. Ich frage nicht, dass du mir die Tech weiter erklärst - dass es "essenzieller" Bestandteil der Tech ist, ist klar, aber ich sprach vom Vergleichen der Techs. Dir ists einfach wichtig, die Datenmengen die ins Bild fließen zu vergleichen? Kann man gerne interessant finden, aber nachvollziehen kann ich das wenig. Welchen Nutzen hat der Vergleich. Die Datenmengen mögen Einfluss auf das Ergebnis haben, aber das trifft eben auf fast alles zu, was vor dem Ergebnis passiert.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: incurable
Ich finde gut, dass du jetzt einfach die dll wie bei dlss selbst tauschen kannst. Bei Witcher 3 sieht xess echt gut aus. AMD muss mal nachlegen. Bischen peinlich, dass xess oft so viel besser ist.
 
In Witcher 3 Rem. wird das Mip Bias mit FSR & DLSS standardäßig zu stark negativ gesetzt, mit XeSS nicht. Mit vergleichbaren Settings via Config-Datei flimmert etwa das (unverdeckte) Gras mit FSR weniger als mit XeSS 1.3.
 
nciht schrieb:
Wofür soll aber bitte die genaue Datenmenge essenziell sein (welche die Anzahl der Frames beinhaltet), was dir so enorm wichtig scheint. Ich frage nicht, dass du mir die Tech weiter erklärst - dass es "essenzieller" Bestandteil der Tech ist, ist klar, aber ich sprach vom Vergleichen der Techs
Gerade wenns ums vergleichen der Techs geht, finde ich beide Daten essenziell.

Wenn ich bei Tech A mit gleicher Renderauflösung die gleiche Bildqualität wie bei Tech B bekomme, könnte man sagen beide sind gleich gut.
Wenn Tech B das aber mit halb so vielen vorherigen Frames schafft, dann ist Tech B besser.

Natürlich kann man auch sagen, wenn Tech B nur halb so viele Frames benötigt, wird sie auch mehr FPS liefern und dann vergleicht man es einfach daran.
 
Taxxor schrieb:
Wenn Tech B das aber mit halb so vielen vorherigen Frames schafft, dann ist Tech B besser.
Warum? Wenn das Ergebnis gleich gut ist, ist das Ergebnis gleich gut. Und zum Ergebnis zählen mindestens Bildqualität, Latenz und FPS (nach subjektiver Gewichtung). Wie man zu diesem Ergebnis kommt ist irrelevant. Man kann höchstens besser die Unterschiede in den Ergebnissen erklären - interessant, aber nicht essenziell.

Taxxor schrieb:
Natürlich kann man auch sagen, wenn Tech B nur halb so viele Frames benötigt, wird sie auch mehr FPS liefern und dann vergleicht man es einfach daran.
Dann vergleichst du aber auch wieder hauptsächlich am (messbaren) Ergebnis (FPS). Die Ursache des Ergebnisses im Detail ist doch nicht essenziell für den Vergleich der Techs, nur "essenziell" für das Ergebnis. Das wird hier eben verwechselt. Versuchs mal zu zeigen, dass diese Werte essenziell für den Vergleich der Techs sind, ohne das Ergebnis oder Teile davon einzubeziehen. Geht nicht - weil die Ergebnisse das einzig essenzielle für den Vergleich sind, so wie bei allem.

Beispiel:
Wie viele RT-Cores nVidia verbaut oder wie die im Detail verglichen mit AMD-Karten funktionieren ist für den Vergleich der GPUs völlig irrelevant. Da zählen dann einfach die Gaming-Benchmarks inkl. Raytracing, eben das Ergebnis. Alles andere ist interessant und essenziell für das Ergebnis (kann die Unterschiede erklären) aber ist absolut nicht essenziell für den Vergleich der Karten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: incurable
ich fand XeSS seit Version 1.1 vom März 2023 super,

zumindest in gefühlt 90% aller Fälle sah es immer deutlich besser aus als FSR,

mit effektiv ähnlichem Performance Gewinn bzw vernachlässigbarem Rückstand.

top.

doch 1.3 scheint mir bisher ein Griff ins Klo zu sein.

das ist total dämlich, was man da gemacht hat mit dem veränderten Render Resolution Scaling Factor.

PS: einfach selber die dll tauschen um die XeSS version upzugraden ging eigentlich schon immer,
und klappt auch jetzt noch, wird aber nun für so einige Spiele & Spieler einfach keinen Sinn mehr ergeben,

weil das XeSS 1.3 resultat bewusst schlechter gemacht wurde in Hinblick auf Qualität (render scaling change),
oder eben unbewusst, weil 1.3 und etwa das neue AI model doch neue bugs haben könnte die 1.1/1.2 noch nicht hatte..

mir scheint es jedenfalls idiotisch, was Intel gemacht hat. Schade.

Man könnte zuerst denken,
einfach XeSS 1.2 "quality" mit XeSS 1.3 "ultra quality" zu ersetzen manuell, und alles palletti? Alter 1.5 Faktor mit dem neuen/geänderten AI Model ?

Denkste:
für alle Spiele die keine patches mehr bekommen von den Spiele-Entwicklern oder Game-Publishern,
Wird das wie gesagt so nicht mehr immer sinnvoll klappen.

Hab's mal versucht in NfS Unbound & High on Life,
Unbound wird durch xess 1.3 selber tauschen unbrauchbar,
Und auch in high on life, da ist 1.1/1.2 quality merklich vor 1.3 ultra quality mmn :



Screenshot 2024-04-08 210903.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: incurable
gustlegga schrieb:
Intel does Intel things...
Die bescheissen und manipulieren seit AMD den ersten Slot-A Athlon rausgebracht hat.
Manipulation weil man unabhängig von anderen Herstellern Upscalingfaktoren festlegt? Finde ich wenig logisch.
 
Quidproquo77 schrieb:
weil man unabhängig von anderen Herstellern Upscalingfaktoren festlegt? Finde ich wenig logisch.
Nein, weil man die gleichen Upscalingfaktorenn nun anders benennt als zuvor.

Wobei ich das eher kundenunfreundliches Marketing nennen würde. 🤷‍♂️
 
Vitche schrieb:
Bis dato hatten Nvidia, AMD und Intel (ungefähr) die gleichen Scaling-Faktoren hinter den bekannten Profilnamen "Quality", "Balanced", "Performance" etc. Jetzt bricht Intel aus diesem Schema aus, was denke ich bei vielen weniger versierten Spieler irreführend wirkt,
Die nicht versierten Spieler wissen nicht mal was skalierungsfaktoren sind. Zumal es auch aus Endbenutzersicht ausreicht zu wissen: höhere Qualitätsstufe = bessere Bildqualität aber weniger performance boost. Ob da am Ende FSR Qualität oder XeSS Qualität Plus läuft, interessiert doch nur irgendwelche pedantischen Nerds.
 
Zurück
Oben