News Xe SS: Intels DLSS-Konkurrent mit KI auch für AMD und Nvidia

Locuza schrieb:
Es war nicht AMDs Entscheidung, sondern die von Sony.
Gut, dann kommt es hoffentlich mit der Pro. Wäre ich aber nicht so begeistert in dem Fall, hab mir nämlich kürzlich die PS5 gegönnt. :freaky:
 
GerryB schrieb:
Die PS5 kann kein DP4a und daher funzt halt ein einfaches FSR plattformübergreifend für ALL.
(schon mal in Hinsicht auf zukünftige PC-Ports von Sony)
Weil Sony unbedingt von AMD einen Upsampler braucht ;). Die verwenden doch üblicherweise Checkerboarding - was grundsätzlich FSR auch überlegen ist.
 
ZeroStrat schrieb:
Gut, dann kommt es hoffentlich mit der Pro. Wäre ich aber nicht so begeistert in dem Fall, hab mir nämlich kürzlich die PS5 gegönnt. :freaky:
Ich selber erwarte eher keine Pro-Modelle.
5nm bringt relativ gesehen weniger Vorteile, als vorherige Nodes und die Kosten steigen immer weiter an.
Bis es Sinn ergibt darauf zu setzen bzw. ein gar stärkeres Modell zu bauen, wird man vielleicht lieber gleich mit einer neuen Generation anfangen.
 
andr_gin schrieb:
Hier ist der korrekte Link. Computerbase hatte anscheinend auf das falsche Video gelinked:
Das sieht aber verdammt gut aus! 😳
 
Neue Technologien und Ansätze sind immer begrüßenswert. Aber wenn Intel klammheimlich einen Standard einführen möchte ("...sondern auch auf GPUs von AMD und Nvidia laufen...") ist es sicher nicht verkehrt, die Ohren zu spitzen. Wäre nicht das Erste Mal, dass Intel sich dazu hingerissen fühlt, Mitbewerber codetechnisch zu benachteiligen.
Man darf gespannt bleiben.
 
PCSpezialist schrieb:
Neue Technologien und Ansätze sind immer begrüßenswert. Aber wenn Intel klammheimlich einen Standard einführen möchte ("...sondern auch auf GPUs von AMD und Nvidia laufen...") ist es sicher nicht verkehrt, die Ohren zu spitzen. Wäre nicht das Erste Mal, dass Intel sich dazu hingerissen fühlt, Mitbewerber codetechnisch zu benachteiligen.
Man darf gespannt bleiben.

Natürlich sollte man bei Intels Vergangenheit da skeptisch sein, aber man sollte auch bedenken, dass sie in diesem Fall hier der kleine Player sind. Sie starten praktisch bei 0 im dedizierten GPU Geschäft.

Wenn nun ihre groß angekündigte Technologie auf nVidia und AMD z. B. Bescheiden liefen, können sie die auch gleich in die Tonne treten. Dann setzen die Entwickler in dem Fall auf "alt bekanntes" von AMD und nVidia.
 
  • Gefällt mir
Reaktionen: Herdware und person unknown
Soll doch nächsten Monat als OpenSource Allen zugänglich sein.

damit kann dann Jeder sein DP4a entsprechend anpassen, falls es Irgendwo noch hakt

btw.
Ob sich wg. evtl. Vorteile extra Cores für das Matrixverfahren lohnen, who knows....
im Gegenzug wird ja Platz auf dem Chip gebraucht, Der evtl. anderweitig mehr bringt.
(zumindestens in der Intel-Benchmark-Grafik war der Unterschied net sooo groß)
 
  • Gefällt mir
Reaktionen: I'm unknown
Mendokusaay schrieb:
Das sieht aber verdammt gut aus! 😳
Auf den ersten Blick ja, nur hat Intel hier ein bisschen manipuliert:
.) Im ersten Vergleich mit 4K Native sieht man keinen Qualitätsunterschied, da das Video nur in 1080p verfügbar ist und nicht gezoomt wurde. Alle Vergleiche mit 1080p sind 2x/4x gezoomt.
.) 1080p Native ist deutlich unschärfer als das Ausgangsmaterial, das fürs Upscaling verwendet wurde. Dies kann entweder schlechtes TAA (das sogar bei Standbildern Unschärfe erzeugt), negatives LOD Bias bei XeSS (ähnlich wie es bei DLSS verwendet wird) oder irgendein anderer Effekt sein. Auf jeden Fall sehe ich das gezeigte 1080p nicht als repräsentativ an, wie 1080p in der Realität aussieht.

Ich denke hier muss man auf die ersten unabhängigen Reviews abwarten, wenn dann z.B. in der UE5 XeSS mit DLSS und TSR verglichen wird sowohl von der Bildqualität als auch Performance.
 
  • Gefällt mir
Reaktionen: kingdomsknight und BGnom
aldaric schrieb:
Natürlich sollte man bei Intels Vergangenheit da skeptisch sein, aber man sollte auch bedenken, dass sie in diesem Fall hier der kleine Player sind. Sie starten praktisch bei 0 im dedizierten GPU Geschäft.

Wenn nun ihre groß angekündigte Technologie auf nVidia und AMD z. B. Bescheiden liefen, können sie die auch gleich in die Tonne treten. Dann setzen die Entwickler in dem Fall auf "alt bekanntes" von AMD und nVidia.
Was natürlich auch nachvollziehbar Hemmungen auslöst, sich als Anwender als einer der ersten eine Karten der neuen Wettbewerber zu kaufen. Das Risiko trägt halt der User. Auch Treiber sollen ohnehin bei Intel nie die besten gewesen sein.
Bin gespannt, ob es Intel gelingt all diese Vorbehalte obsolet zu machen. Wünschenswert ist ein weiterer erfolgreicher Marktteilnehmer auf jeden Fall. Ich drücke Ihnen die Daumen und hoffe, dass SIe diesmal auch erfolgreich den Endkunden als Ziel haben.
 
aldaric schrieb:
Wenn nun ihre groß angekündigte Technologie auf nVidia und AMD z. B. Bescheiden liefen, können sie die auch gleich in die Tonne treten. Dann setzen die Entwickler in dem Fall auf "alt bekanntes" von AMD und nVidia.
Das käme wohl darauf an, wie bescheiden es laufen würde und auch wie die Optik verglichen mit FSR und DLSS ist.

Nehmen wir mal an, Intels Lösung sähe eindeutig besser aus als FSR.
Mit FSR holt man bei Intel, Nvidia und AMD jeweils +50% raus.
Wenn man mit einer aktuellen Intel GPU dann mit deren Lösung ebenfalls +50% rausholen kann, mit einer Nvidia oder AMD GPU aber nur +40% bei trotzdem deutlich besserer Optik verglichen mit FSR, dann wäre es ja trotzdem noch ein Vorteil für alle.
Selbst wenn es dann nur +30% wären, könnte man eine Stufe runterdrehen und auch auf 50% kommen bei dann etwas schlechterer Optik verglichen mit Intel GPUs, aber immer noch etwas besser bis zumindest nicht schlechter als mit FSR.


Irgendwie habe ich das Gefühl, das xeSS das ist, was AMD mit FSR eigentlich hätte machen wollen, aber es in der Zeit nicht geschafft hat, in der man FSR bringen wollte und wir etwas ähnliches dann mit FSR 2.0 sehen werden, welches dann evtl performanter mit RDNA3 läuft, während es weiterhin kompatibel zu den alten Karten bleibt.

Dass Intel bis jetzt keine dGPUs hatte, ist in der Hinsicht schon fast ein Vorteil, da man sich so Zeit lassen konnte xeSS zu entwickeln, ohne dass man zu irgendeinem Zeitpunkt unbedingt etwas raushauen musste, um etwas gegen die Konkurrenz anbieten zu können.

Und egal wie unwahrscheinlich es ist, aber das Beste wäre, wenn sich Intel und AMD hier in der nächsten Iteration um eine gemeinsame Lösung bemühen würden.
Auch Entwickler haben sicher keine Lust, x verschiedene Varianten zu implementieren oder sich immer zwischen diesen entscheiden zu müssen.
Und dann könnte Nvidia sich evtl auch irgendwann genötigt fühlen, mitzumachen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: BGnom
Kein Mensch braucht unbedingt xeSS per Matrix-Intel-specialCores wenn DP4a bereits INT8 x 4 nutzt!
x 4 bringt so viel Schmackes, das ich mir wg. der Performance keine Sorgen mache

btw.
Ich lese Da eher 200% statt 100+50% raus, sprich Verdopplung der Fps = I like it!
 
edenjung schrieb:
Intel hat sich wohl was bei AMD abgeschaut und macht es Open Source und AMD hat wohl vorher von Intel gesteckt bekommen, dass sie was mit temporalen Scaling machen wollen das auch bei AMD funzt.
Intel hat von AMD gar nichts abgeschaut und die stecken sich gegenseitig auch nichts. Intel hat Jahre vor AMD/ATI mit Open-Source-Entwicklung angefangen. Leider führt das immer wieder zu so abstrusen Ereignissen, dass insbesondere Intel dem "Not Invented Here"-Syndrom verfällt, wenn eine Technik mal von AMD früher Open Source gemacht wird, und lieber einen Konkurrenten aufbaut. Manchmal bauen die dann Kompatibilität für einen ihrer jeweils zwei Konkurrenten ein, um der Welt ein "schaut mal, unser Ansatz läuft überall" zu präsentieren, aber dass Intel und AMD bei solchen Sachen gemeinsam an einem Strang ziehen, kommt selten vor.

Anderes Beispiel ist AMDs Open-Source-Konkurrent zu NVidia CUDA. AMD gibt https://github.com/ROCm-Developer-Tools/HIP und Konsorten frei, statt ein Back-End dafür bereitzustellen, macht Intel lieber Jahre später https://www.oneapi.io/ Alles immer fleißig mit Labels wie "Offener Industrie-Standard" oder so versehen, aber letztendlich nutzt dann jeder doch nur CUDA, weil der Rest sich nicht einig wird.
 
Artikel-Update: Auch wenn alles darauf hingedeutet hat, dass RDNA 2 das für Xe SS benötigte Rechenformat unterstützt, ganz gesichert war diese Information noch nicht. Doch hat AMD ComputerBase soeben bestätigt, dass RDNA 2 DP4a-Instruktionen mit Rapid Packed Math, also höherer Geschwindigkeit, beschleunigen kann. Xe SS wird damit auf Radeon-RX-6000-Grafikkarten lauffähig sein. Ältere AMD-GPUs unterstützen dagegen kein DP4a, können aber zumindest theoretisch die Berechnungen auch langsamer mittels FP32 oder FP16 durchführen.
 
  • Gefällt mir
Reaktionen: second.name, Hatch, foo_1337 und 3 andere
Handelt es sich bei Rapid Packed Math nicht um Berechnungen mit FP16 Genauigkeit? Nach der Logik müssten alle Karten bis einschließlich Vega entsprechend unterstützt werden.
 
Ist ja toll das jeder Hersteller sein eignes Süppchen kocht nur für die Entwickler der Games ist das echt aufwendig ….

Warum kann man sich nicht an einen Tisch setzten und macht ein FSR oder DLSS usw. zusammen ? Immer gegeneinander arbeiten anstatt zusammen…
 
Bei Digital Foundry auf Youtube waren Intel Offizielle zum Interview.
Darin wurde erwähnt, dass XeSS DP4a wohl keine FP16 oder FP32 Unterstützung hat.
 
rumpeLson schrieb:
Handelt es sich bei Rapid Packed Math nicht um Berechnungen mit FP16 Genauigkeit? Nach der Logik müssten alle Karten bis einschließlich Vega entsprechend unterstützt werden.
RPM ist ein Sammelbegriff für beschleunigte Berechnungen mit reduzierter Genauigkeit. In diesem Fall muss es INT8 sein, das geht anscheinend erst seit RDNA 2.
 
  • Gefällt mir
Reaktionen: rumpeLson
DarkerThanBlack schrieb:
Soweit ich es interpretiere machen sie dies ja auch. AMD oder NVIDIA bringen die GPU-Leistung mit ihren dedizierten Karten, während Intel mit ihrer iGPUs die KI-Berechnung übernehmen.
Zumindest so verstehe ich das. 🤔
Im Interview mit Digital Foundry wurde das angesprochen.
Bisher ist die iGPU noch nicht involviert, alles läuft über die dedizierte GPU.
Ein Interesse an der Nutzbarmachung ist zwar da, aber bisher noch nicht so weit entwickelt, dass da was angekündigt werden könnte.
 
Rickmer schrieb:
Wenn Xe SS wirklich Open Source wird müssen sich Intel und AMD mal zusammensetzen und deren Upscaling-Technologien zu einem (leicht zu implementierenden) Monster mit den Vorteilen beider Technologien kombinieren... träum

Denke doch mal an NV habe ein Herz für die Abzocker. ;)
 
  • Gefällt mir
Reaktionen: Haldi und Rickmer
Zurück
Oben