Andre83hro
Ensign
- Registriert
- Feb. 2025
- Beiträge
- 170
Definitiv, verfolge sie bei ein Kaffee :-PReturn2Burn schrieb:Spannend das hier trotzdem die identischen Diskussionen wie vor der Ergebnisveröffentlichung geführt werden 😅
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Definitiv, verfolge sie bei ein Kaffee :-PReturn2Burn schrieb:Spannend das hier trotzdem die identischen Diskussionen wie vor der Ergebnisveröffentlichung geführt werden 😅
Nope, H:FW. In TLOU2 hat man easy am Gitter gesehen, was TAA ist.Snapuman schrieb:Lass mich raten, TLOU2? ^^
Ok, nehmen wir an, deine Aussage wäre richtig.Grestorn schrieb:Aber das Modell generiert sicher keine Bilder.
Siehe Post #227Grestorn schrieb:Und was macht es genau? Steht das da auch drin? Steht drin, dass das Modell die kompletten Bilder generiert?
Du kannst ja mal das Kapitel nennen. Wie gesagt, den ganzen Text zu lesen, dazu fehlt mir jetzt die Zeit.
CB und Nvidia hypen, der war jetzt echt gutblackiwid schrieb:Heißt aber auch das uns Computerbase bisschen Fanboymäsig zu stark für Nvidia hyped.
DLSS selbst nutzt keine KI zur Rekonstruktion. Lediglich das Modell/der Algorithmus wird mittels KI erstellt/generiert. Die Karte bzw. der Treiber wendet das einfach nur noch an.adfsrg schrieb:Ok, nehmen wir an, deine Aussage wäre richtig.
Nehmen wir weiterhin an, du spielst ein Spiel und hast DLSS an.
Da DLSS SR keine Bilder generiert, ist auf dem Monitor kein Bild zu sehen.
Das hatte ich ja auch nicht in Frage gestellt. ^^ElliotAlderson schrieb:Nope, H:FW. In TLOU2 hat man easy am Gitter gesehen, was TAA ist.
Oh Mann.adfsrg schrieb:Ok, nehmen wir an, deine Aussage wäre richtig.
Nehmen wir weiterhin an, du spielst ein Spiel und hast DLSS an.
Da DLSS SR keine Bilder generiert, ist auf dem Monitor kein Bild zu sehen.
Wenn ich darauf klicke, krieg ich das Inhaltsverzeichnis der ganzen Doku. Sollte da ein spezielles Kapitel verlinkt sein? Oder hast Du das Posting editiert?TheInvisible schrieb:Siehe Post #227
Naja in dem Test gab es ja nur die Möglichkeit für das beste Bild zu stimmen und keine Möglichkeit nach der wahrgenommenen Qualität zu sortieren. (Platz 1, 2 und 3).CadillacFan77 schrieb:Natürlich gewann DLSS jeden einzelnen Test mit den meisten Stimmen, trotzdem haben mehr als die Hälfte nicht für DLSS gestimmt - entsprechend kann DLSS gar nicht so haushoch überlegen sein. Unbestritten ist, dass DLSS definitiv technisch und optisch weiter ist als FSR oder gar TAA, aber nicht in dem Ausmass, was dieser Text suggeriert.
Ironie? Die größte Kritik an FXAA war doch, dass das Bild komplett verschwommen weichgezeichnet wird statt nur die Kanten zu glätten. Wenn es um feine Details und Texturschärfe geht sind die modernen Verfahren meilenweit besser.Lakinator schrieb:Andererseits bin ich auch immer noch sehr gewöhnt an das gute alte FXAA. Ich mags halt wenns scharf, nicht verschwommen und keine Ghosting Effekte oder sonstiges hat.
Würden die Karten ähnlich viel kosten ja. Da man ohne unbegrenztes Budget aber immer eine Abwägung, bzw. einen Kompromiss zwischen Preis / Leistung (/ Bildqualität) eingehen muss steht Nvidia trotz augenscheinlich besserem DLSS gerade nicht besonders gut da: Eine RTX 5070Ti kostet derzeit je nach Modell mindestens 250€, meist sogar >=300€ mehr als eine ähnlich schnelle 9070XT. Als ich meine 5070Ti gekauft habe lag der Unterschied noch bei ~100€. Zum aktuellen Zeitpunkt würde ich wohl die 9070XT vorziehen denn so groß ist der optische Vorteil dann auch wieder nicht, dass so ein hoher Aufpreis gerechtfertigt wäre.mikiiway schrieb:Ich denke, ich spreche hier für jeden, der seine Kaufentscheidung rational trifft: Nvidia ist derzeit (leider) die einzig sinnvolle Empfehlung.
AMD hat ihre Treiber in den vergangenen Jahren stets so gut gepflegt, dass den Karten nachgesagt wurde sie würde wie "fine wine" altern. Der harte Cut kam, da den alten pre 9000 Karten schlicht die physikalischen Hardwareeinheiten fehlen, um FP8 für FSR4 in voller Qualität performant zu betreiben. Irgendwann muss man diesen Cut machen, wenn die Software weiterentwickelt und verbessert werden soll.mikiiway schrieb:AMD stellt für RDNA 3 Karten, die gerade mal 2–3 Jahre alt sind, kein FSR 4 bereit. Nvidia hingegen unterstützt selbst die mittlerweile über sechs Jahre alte RTX 2000er Serie mit DLSS 4.5. Ob es praktisch sinnvoll ist, DLSS 4.5 auf einer RTX 2060 zu nutzen, steht auf einem anderen Blatt aber es geht ums Prinzip: Nvidia pflegt sein Ökosystem über Jahre hinweg, während AMD zahlende Kunden deutlich früher im Regen stehen lässt.
„Nicht mal“ 50% ist gutPilstrinker schrieb:Nicht mal 50% empfinden DLSS 4.5 als qualitativ besser gegenüber anderen Verfahren.
In welcher Welt sind 4x so viele Stimmen nicht ein „wesentlich höherer“ Anteil?Pilstrinker schrieb:Denn wäre es so eindeutig überlegen, hätte der Anteil wesentlich höher sein müssen.
Schön, dass das keine Rolle spielt, da es ein Blindtest warSyrato schrieb:Verwundert mich jetzt nicht, ist ja Nvidia Base oder doch AMD Base?
Ja, bei mir hat ein solcher neuer 12V-Stecker schon einmal Feuer gefangen – es hat im PC tatsächlich angefangen zu brennen.
50% sind ja auch nicht der Rede wertReturn2Burn schrieb:Spannend das hier trotzdem die identischen Diskussionen wie vor der Ergebnisveröffentlichung geführt werden 😅
lejared schrieb:Wäre es möglich, die Video-Vergleiche mal in WQHD statt UHD zu machen?
Das nennt sich freie Marktwirtschaft. Wer hat, der kann...Medcha schrieb:Toller Pokal! Rechtfertigt nur den Preisaufschlag bei Nvidia nicht. Am Ende bleibt's beim Alten für mich: AMD
Habe ich irgendwas anderes behauptet? WTF?ElliotAlderson schrieb:Beides nutzt eben kein Deferred Rendering, sondern Forward. Deferred und MSAA beißen sich. Abgesehen davon, glättet MSAA nur Polygonkanten, also funktioniert das ganze mit Shadereffekten und Alphas nicht wirklich, kostet dafür aber nen Ar*** voll Leistung.
Viele Effekte werden heute auch ganz gerne mal in niedrigerer Qualität gerendert und durch TAA kaschiert. Haare wären hier so ein Beispiel. Würdest du stattdessen MSAA nutzen, müsstest du die Qualität sämtlicher Effekte hochfahren, was die Performance in den Keller zieht, oder es sieht scheiße aus.
Siehe bspw. hier:
https://www.reddit.com/media?url=https://preview.redd.it/the-hair-on-every-new-character-without-taa-looks-horrendous-v0-25y22o7cwv4f1.png?auto=webp&s=1a3a271ccae5a505425a59f501327b9432f54b92
lol xdGrestorn schrieb:
danyundsahne schrieb:Sehr interessante Ergebnisse.
Ich schwimme aber auch nicht mit...
2x nativ, 2x keinen Unterschied, 2x DLSS4.5.
Also entweder sind meine Augen für solche Lupendetails mittlerweile zu schlecht oder mir ists einfach egal, da es mir beim zocken eh kaum bis gar nicht auffällt.
Eben. Und erfasst eben nur die Kanten. Das reicht heute nicht mehr. Bei einem uralt Spiel wie HL2, wo noch deutlich weniger Shader genutzt wurden, geht das noch. Bei modernen Spielen kannst Du das vergessen. Jeder Shader erzeugt Aliasing, und MSAA glättet es nicht.jo0 schrieb:Nvidia selbst hatte ein Artikel online, wo erklärt wurde, wie man MSAA mit Deferred Rendering nutzen kann. Wurde vor kurzen gelöscht, als das Thema mehr Aufmerksamkeit bekam, nunja... Aber ja, MSAA ist natürlich deutlich langsamer