Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
6900 XT oder RTX 3080 Ti ?
- Ersteller Bumblebee_3rd
- Erstellt am
Ardan Redburn
Lt. Commander
- Registriert
- Okt. 2018
- Beiträge
- 1.325
Herrje,läuft die diskuse immer noch?
Solangsam muss die Welt halt einsehen das es offenbar zumindest eine 6900XT gibt die ohne 1500W Netzteil nicht ordentlich läuft und mit getuntem 16Kerner in Apex@FHD gefühlte Ruckler produziert.
Ebenso das es Netzteile gibt die FPS bzw TS-Punkte generieren und XFX Limited LC-Versionen verkauft
die kaum mit Referenzkarten unter Luft konkurrieren können.
Vorm Rechner kann der Fehler auch nicht sitzen,ein Kollege hats ja gesehen und getestet.
Das es regelabweichende Ausnahmen gibt,die auch mit PP11 700W Netzteil die XT mit
400W stabil braten lassen können und 99,9% der nutzer keine Probleme mit aktuellen Netzteilen der 800W-Region haben ist da nebensächlich.
Prinzipiell würde ich dSi empfehlen das Setup in den Kofferraum zu stopfen und bei der CB-Redaktion
oder Igorslab vorbei zu fahren..... Vielleicht isser ja ner ganz großen Sache auf der Spur.
Bin auch sone gequälte Seele die mit unzureichender Stromversorgung in 4K@60 vor sich hin Vegetiert..
Bei mir sind die Rucklerproblem nicht vorhanden;-)
Solangsam muss die Welt halt einsehen das es offenbar zumindest eine 6900XT gibt die ohne 1500W Netzteil nicht ordentlich läuft und mit getuntem 16Kerner in Apex@FHD gefühlte Ruckler produziert.
Ebenso das es Netzteile gibt die FPS bzw TS-Punkte generieren und XFX Limited LC-Versionen verkauft
die kaum mit Referenzkarten unter Luft konkurrieren können.
Vorm Rechner kann der Fehler auch nicht sitzen,ein Kollege hats ja gesehen und getestet.
Das es regelabweichende Ausnahmen gibt,die auch mit PP11 700W Netzteil die XT mit
400W stabil braten lassen können und 99,9% der nutzer keine Probleme mit aktuellen Netzteilen der 800W-Region haben ist da nebensächlich.
Prinzipiell würde ich dSi empfehlen das Setup in den Kofferraum zu stopfen und bei der CB-Redaktion
oder Igorslab vorbei zu fahren..... Vielleicht isser ja ner ganz großen Sache auf der Spur.
minimii schrieb:Wie "schlimm" ist es denn bei 6800/6900 mit Mikrorucklern unter 4k?
Bin auch sone gequälte Seele die mit unzureichender Stromversorgung in 4K@60 vor sich hin Vegetiert..
Bei mir sind die Rucklerproblem nicht vorhanden;-)
Luuuc22 schrieb:Du redest immer noch von Minimum während du selbst nen Screenshot der Empfehlung machst.

was steht da vor den 850 Watt?
Das ist eine XFX 6900XT Black
Bei AMD gibt es nur die Referenzmodelle die nicht so wie custom modelle übertaktet sind, was bedeutet das "min." vor den 850 watt für dich?
Ergänzung ()
https://www.heise.de/news/PCIe-5-0-Grafikkarten-Neuer-Stromstecker-fuer-bis-zu-600-Watt-6213881.htmlLuuuc22 schrieb:Interessant das du auch schon fundierte Fakten zu der kommenden Generation hast. Was solls..
Ich Zitiere:
Gerüchteweise sollen AMDs und Nvidias Topmodelle der nächsten Grafikkartengenerationen Radeon RX 7000 und GeForce RTX 4000 noch einmal mehr elektrische Leistung aufnehmen als bisher. Die Rede ist von mehr als 400 Watt bei den Referenzversionen – Partnerhersteller legen häufig noch eine Schippe darauf. Das 3DCenter hatte die Gerüchte im Sommer zusammengefasst.
Zuletzt tauchten zudem Spekulationen über eine GeForce RTX 3090 Ti mit einer Leistungsaufnahme von 450 Watt auf. Sie soll unter anderem noch schnelleren GDDR6X-Speicher als die GeForce RTX 3090 verwenden und so die Übertragungsrate von 936 auf 1008 GByte/s anheben.
Zitat Ende!
Die erfinden umsonst neue Stecker alles nur Gerüchte! Die nächsten Grafikkarten werden Sparsamer bei gleichzeitiger doppelter Leistung! ironie-off
https://www.gamestar.de/artikel/rtx-4000-rx-7000-leak-stromverbrauch,3372183.html
Zitat:
Demnach sprengen sowohl AMD als auch Nvidia bislang bestehende Grenzen. Der Vollausbau von Navi 31, der aller Voraussicht nach das kommenden Spitzenmodell von AMD befeuern wird, soll es auf 450 bis 480 Watt bringen. Nvidias Pendant im High-End-Segment auf Basis des AD102-Chips, das vermutlich auf den Namen RTX 4090 oder 4080 Ti hören wird, soll 420 bis 450 Watt verbrauchen.
Um das einmal in Relation zu setzen: Die Nvidia Geforce RTX 3090 verbraucht in der Founders Edition maximal 350 Watt. Das Referenzdesign der AMD Radeon RX 6900 XT ist auf 300 Watt ausgelegt.
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
und die neueste Meldung 04.11.2021
https://www.giga.de/news/geforce-rtx-4000-neue-nvidia-grafikkarten-sollen-ein-grosses-problem-haben/
Zitat:
Aktuell sind Details zu RTX 4000 und RX 7000 noch rar gesät, doch der bekannte Hardware-Leaker Greymon55 hat nun eine interessante Information zu Nvidias nächstem Flaggschiff in Erfahrung bringen können, der GeForce RTX 4090. Er geht davon aus, dass die Spitzen-GPU ein echter Stromfresser wird und eine TDP von 550 Watt erreicht. Zum Vergleich: Das aktuelle Top-Modell, die RTX 3090, hat eine TDP von 350 Watt, der Verbrauch der 2080 Ti lag damals bei 250 Watt.
Ergänzung ()
viel Spaß mit euren 850 Watt Netzteilen aber vielleicht bietet ja Notebooksbilliger gleich ein Bundle an RTX 4090 + 1200 Watt Netzteil
Zuletzt bearbeitet:
Ardan Redburn
Lt. Commander
- Registriert
- Okt. 2018
- Beiträge
- 1.325
dftt
AMD
5500XT TDP 130 Watt
5600XT TDP 150 Watt
5700XT TDP 225 Watt
5800XT TDP 275 Watt
6600XT TDP 160 Watt +23%
6700XT TDP 230 Watt +54%
6800XT TDP 300 Watt +34%
6900XT TDP 300 Watt +9%
Nvidia
RTX 2060 TDP 160 Watt
RTX 2070 TDP 175 Watt
RTX 2080 TDP 225 Watt
RTX 2080TI TDP 260 Watt
RTX 3060 TDP 170 Watt +6,5%
RTX 3070 TDP 220 Watt +25%
RTX 3080 TDP 320 Watt +45%
RTX 3090 TDP 350 Watt +35%
RTX 4060 TDP
RTX 4070 TDP
RTX 4080 TDP
RTX 4090 TDP 550 Watt ??? + 57% wenn Greymon55 recht behält und das war in 95% der Fälle immer so
Die beliebteste RTX ist immernoch die 3080 wegen Preis/Leistung also würde die RTX 4080 bei nur +35% trotzdem bei 430 Watt TDP sein.
Ich seh da einen klaren Trend die nächsten Jahre, mehr Leistung geht nur mit mehr Stromaufnahme.
Und jeder wird sich wieder die karte mit dem besten Preis/leistungs verhältnis holen das ist die 6800XT (7800XT) und die RTX 3080 (RTX 4080).
Wir brauchen das ganze nicht schön reden......es ist wie es ist und es kommt so wie die ganzen Leaker schon mehrmals gesagt haben.
5500XT TDP 130 Watt
5600XT TDP 150 Watt
5700XT TDP 225 Watt
5800XT TDP 275 Watt
6600XT TDP 160 Watt +23%
6700XT TDP 230 Watt +54%
6800XT TDP 300 Watt +34%
6900XT TDP 300 Watt +9%
Nvidia
RTX 2060 TDP 160 Watt
RTX 2070 TDP 175 Watt
RTX 2080 TDP 225 Watt
RTX 2080TI TDP 260 Watt
RTX 3060 TDP 170 Watt +6,5%
RTX 3070 TDP 220 Watt +25%
RTX 3080 TDP 320 Watt +45%
RTX 3090 TDP 350 Watt +35%
RTX 4060 TDP
RTX 4070 TDP
RTX 4080 TDP
RTX 4090 TDP 550 Watt ??? + 57% wenn Greymon55 recht behält und das war in 95% der Fälle immer so
Die beliebteste RTX ist immernoch die 3080 wegen Preis/Leistung also würde die RTX 4080 bei nur +35% trotzdem bei 430 Watt TDP sein.
Ich seh da einen klaren Trend die nächsten Jahre, mehr Leistung geht nur mit mehr Stromaufnahme.
Und jeder wird sich wieder die karte mit dem besten Preis/leistungs verhältnis holen das ist die 6800XT (7800XT) und die RTX 3080 (RTX 4080).
Wir brauchen das ganze nicht schön reden......es ist wie es ist und es kommt so wie die ganzen Leaker schon mehrmals gesagt haben.
Ergänzung ()
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
Zuletzt bearbeitet:
Also ich weiß nicht, was du da falsch machst, dass du so ein teures Netzteil benötigst, aber meine 6900XT läuft mit einem 850W Netzteil ohne Probleme bzw. "butterweich", wie du das genannt hast.
Bis du hier mal mit Benchmarks kommst, die die angeblich bessere Performance unter 1600W aufzeigen bleiben deine Aussagen unbewiesene und unglaubwürdige Behauptungen.
Bis du hier mal mit Benchmarks kommst, die die angeblich bessere Performance unter 1600W aufzeigen bleiben deine Aussagen unbewiesene und unglaubwürdige Behauptungen.
Tornavida
Banned
- Registriert
- Okt. 2020
- Beiträge
- 6.298
Unsere 6900xt Nitro+ schafft durchgehend >2450 mit einem 750Watt Seasonic PX und wer weiss was 1000 Punkte Unterschied im 3dMark letztendlich an FPS bedeuten dann ist der ganze Fred sowieso ziemlich hirnrissig wenn man mit rationalen Masstäben herangeht.Ist ja seine Sache wenn er für eine einstellige FPS-Steigerung 1000 Euro mehr ausgeben möchte .Wenn es ihm Spass macht und er Freude an langen Balken hat,lasst ihn doch;ausserdem möchte er vorbereitet sein für die 600W GPU´s der Zukunft und da wird es dann tatsächlich knapp mit den 750/850 NT´s .
dSi schrieb:Untermauern? Tut mir leid ich hab leider keine Labormessgeräte hier die während des Spielens und den spannungsspitzen die Voltage überwachen.
Und untermauern muss Ich das nicht...
Das musst du in der Tat nicht, nur solltest du dich dann nicht in Verwunderung üben, wenn deine steile These unter Ulk verbucht wird.
Wie würdest du denn argumentieren, wenn ich dir mit "die Erde ist ne Scheibe" komme?
Uns bzw. mich musst du nicht überzeugen, was notwendig oder angebracht erscheint und was nicht. Ich bin mittlerweile in einem Alter, wo ich sehr wohl unterscheiden kann, was dem Marketing geschuldet ist und was tatsächlich vonnöten ist.
Wenn deine vorangegangenen Ausführungen hingegen einzig dem Ziel dienen, dir den Kauf schönzureden, sei dir dies mal ausnahmsweise erlaubt.
mit frdl. Gruß
Ergänzung ()
kawanet schrieb:Es spielt weniger ein Rolle, was du dein Eigen nennst, sondern ob du das Ganze untermauern kannst.
Wie gesagt, mit Argumenten ist dir ja nicht beizukommen.
Zuletzt bearbeitet:
Ich hab im Netzteil Thread mehrere Time Spy runs verlinkt. Mit den 850 watt netzteilen war die maximal einstellbare Taktrate 2610 Mhz im kalten zustand 2640 Mhz aber nicht jeder run, eher jeder dritte wenn der Loop 25 Grad hatte und nicht 27,5 Grad.
Sobald Ich das 1600 Watt Netzteil dran gemacht hatte, konnte Ich ohne Probleme sofort auf 2670 Mhz, selbst im warmen zustand. Jeder Time Spy run hat funktioniert.
Das liegt daran das dieses Corsair AX1600i Technisch das beste Netzteil ist und Lastspitzen somit am besten abfängt und das sorgt wiederrum dafür das bei einer Lastspitze die Voltage kaum in den Keller geht, das wiederrum sorgt dafür das der Radeon Treiber nicht crasht weil die maximalen / minimalen Werte die im Bios der Karte fest hinterlegt sind und im Radeon Treiber, nicht über oder unterschritten werden.
Das dieses Netzteil 1600 watt hat ist nun mal so, Ich frag mich immernoch wo euer Problem ist?
Mein Idle Verbrauch bei 2% CPU Auslastung liegt bei 150 watt durch die ganzen Lüfter, Die TDP von meinem 5950x liegt bei 260 Watt.
Rechnen wir also:
Idle 150 Watt
5950x Volllast 255 Watt
-------------
Ergibt allein um die 400 Watt
6900XT mit offenen Limits 432 Watt
Rechnen wir weiter....
150 watt
837 Watt......
Darauf muss man wenigstens bei einer effizienz von 92% noch weitere 8% drauf rechnen, und die 92% sind ideal Bedingungen aus dem Labor.
Aber bei nur 8% verlustleistung sind wir schon bei 903 Watt.
Die 12 Volt schiene von dem Be Quiet hat dazu mehrmals abgeschaltet bei offenen Limits der 6900XT, das klicken war so leise das Ich es am anfang garnicht gehört habe.
Und hört endlich auf mit euren lächerlichen 4k Gaming, weil bei dauerhaft 99% GPU auslastung keinerlei Lastspitzen entstehen!!!!
Lastspitzen entstehen (wie der Name schon sagt) bei Lastwechseln von zum Beispiel 500 Mhz hoch auf 2500 Mhz zusammen mit einer GPU Auslastung von zum Beispiel 40% auf 99%. Wie soll sowas bei dauerhaft 99% GPU Auslastung entstehen??????
Und jetzt kommt mir nicht mit undervolting oder die Limits von 5950x runtertakten oder oder oder.
Dazu sag Ich dann nur noch:
Klar Ich kauf mir einen Porsche mit einem V12 Motor und fahr Ihn nur im Standgas damit er nicht soviel schlugt und weil das noch nicht reicht, fahr Ich ihn nicht mit Super Plus sondern mit E10 und kipp noch jedesmal 10 Liter salatöl extra dazu!
Sobald Ich das 1600 Watt Netzteil dran gemacht hatte, konnte Ich ohne Probleme sofort auf 2670 Mhz, selbst im warmen zustand. Jeder Time Spy run hat funktioniert.
Das liegt daran das dieses Corsair AX1600i Technisch das beste Netzteil ist und Lastspitzen somit am besten abfängt und das sorgt wiederrum dafür das bei einer Lastspitze die Voltage kaum in den Keller geht, das wiederrum sorgt dafür das der Radeon Treiber nicht crasht weil die maximalen / minimalen Werte die im Bios der Karte fest hinterlegt sind und im Radeon Treiber, nicht über oder unterschritten werden.
Das dieses Netzteil 1600 watt hat ist nun mal so, Ich frag mich immernoch wo euer Problem ist?
Mein Idle Verbrauch bei 2% CPU Auslastung liegt bei 150 watt durch die ganzen Lüfter, Die TDP von meinem 5950x liegt bei 260 Watt.
Rechnen wir also:
Idle 150 Watt
5950x Volllast 255 Watt
-------------
Ergibt allein um die 400 Watt
6900XT mit offenen Limits 432 Watt
Rechnen wir weiter....
150 watt
- 260 watt
- 432 watt
837 Watt......
Darauf muss man wenigstens bei einer effizienz von 92% noch weitere 8% drauf rechnen, und die 92% sind ideal Bedingungen aus dem Labor.
Aber bei nur 8% verlustleistung sind wir schon bei 903 Watt.
Die 12 Volt schiene von dem Be Quiet hat dazu mehrmals abgeschaltet bei offenen Limits der 6900XT, das klicken war so leise das Ich es am anfang garnicht gehört habe.
Und hört endlich auf mit euren lächerlichen 4k Gaming, weil bei dauerhaft 99% GPU auslastung keinerlei Lastspitzen entstehen!!!!
Lastspitzen entstehen (wie der Name schon sagt) bei Lastwechseln von zum Beispiel 500 Mhz hoch auf 2500 Mhz zusammen mit einer GPU Auslastung von zum Beispiel 40% auf 99%. Wie soll sowas bei dauerhaft 99% GPU Auslastung entstehen??????
Und jetzt kommt mir nicht mit undervolting oder die Limits von 5950x runtertakten oder oder oder.
Dazu sag Ich dann nur noch:
Klar Ich kauf mir einen Porsche mit einem V12 Motor und fahr Ihn nur im Standgas damit er nicht soviel schlugt und weil das noch nicht reicht, fahr Ich ihn nicht mit Super Plus sondern mit E10 und kipp noch jedesmal 10 Liter salatöl extra dazu!
Haenger
Commodore
- Registriert
- Juli 2007
- Beiträge
- 4.275
deine besagten Runs waren mindestens mit verschiedenen RAM-Settings.dSi schrieb:ch hab im Netzteil Thread mehrere Time Spy runs verlinkt.
Vollständig dokumentierte Runs inkl Setting zeigen, oder Füße still halten
Erzähl doch kein müll die Settings zuvor sind immer gleich selbst windows updates waren desktiviert bei nur netzteil tauschen!Haenger schrieb:deine besagten Runs waren mindestens mit verschiedenen RAM-Settings.
Vollständig dokumentierte Runs inkl Setting zeigen, oder Füße still halten
Hejo
Commander
- Registriert
- Jan. 2012
- Beiträge
- 2.163
UV schlecht zu reden halte ich genauso für Quatsch wie sinnfrei seine Karte hochzuprügeln. UV ist ne tolle Sache spart ordentlich Strom bei minimalem FPS Verlust. Habe +20% OC bei -20% Voltage was will man mehr.dSi schrieb:Dazu sag Ich dann nur noch:
Klar Ich kauf mir einen Porsche mit einem V12 Motor und fahr Ihn nur im Standgas damit er nicht soviel schlugt und weil das noch nicht reicht, fahr Ich ihn nicht mit Super Plus sondern mit E10 und kipp noch jedesmal 10 Liter
Hatte übrigens auch mit meinem 750 Watt Netzteil keine Probleme mit einem 5800x und einer 3080Ti auf Stock.
Wenn ich jetzt ein neues Netzteil kaufen müsste würde ich mich auch für ein 850 Watt aber eher 1000 Watt Markennetzteil entscheiden da ich das immer für einen Zeitraum 5 bis 10 Jahre kaufe.
Jetzt aber ein 1600 Watt Netzteil anzupreisen halte ich aktuell auch für übertrieben.
selten so einen Blödsinn gelesendSi schrieb:Rechnen wir also:
Idle 150 Watt
5950x Volllast 255 Watt
-------------
Ergibt allein um die 400 Watt
du kannst Idle- und Vollastwerte nicht einfach addieren
Verbrauch 5900X/5950X
"We show energy consumption based on the entire PC (motherboard / processor / graphics card / memory / SSD). This number depends and will vary per motherboard (added ICs / controllers / wifi / Bluetooth) and PSU (efficiency). Keep in mind that we measure the ENTIRE PC, not just the processor's power consumption."
wie würdest du sonst den verbrauch von 10 Lüftern, 4 LED Stripes, 4 UV LED´s, einer Ultimate XT, ein high flow next, 4 Temperatur sensoren, 1 Tastatur, 1 Gamepad, 4 Mäuse, 1 induktionsladegerät, 1 USB Hub, 1 Lüftersteuerung, beschreiben?doOkz schrieb:selten so einen Blödsinn gelesen
du kannst Idle- und Vollastwerte nicht einfach addieren
Grafikkarte auf 0% bis 1% Auslastung
CPU auf 0% bis 2% Auslastung.
Was wäre das richtige Wort dafür?

Ergänzung ()
und ganz ehrlich mein ELV Strommessgerät an der Steckdose sagt 820 Watt bei CInebench R23 und gleichzeitig Furmark, bei Time Spy und in Spielen sind die Lastspitzen noch höher..........
und was sagt das Dashboard vom Netzteil ??
806 Watt..........
aber Ich hab ja falsch gerechnet, nicht wahr? das ist totaler Blödsinn was ich rechne..........
wisst Ihr was, Ihr habt alle recht und Ich meine ruhe ganz einfach.........
Ergänzung ()
und 599 Watt bei nur Furmark also 99% GPU Auslastung
und da soll ein 850 Watt nicht an seine grenze kommen???
und wir sind hier bei 95% Effienz! Titanium einstufung.........
850 Be Quiet effizienz

850 Watt Seasonic Effizienz

aber klar ein 850 Watt Netzteil reicht schon irgendwie, notfalls stöpsel ich paar Lüfter ab, mach alle LED´s aus, nur damit Ich in ruhe zocken kann
und nur so zur Info, da ist die 6900XT noch nicht mal übertaktet!
Zuletzt bearbeitet:
- Registriert
- März 2019
- Beiträge
- 2.185
dSi schrieb:und nur so zur Info, da ist die 6900XT noch nicht mal übertaktet!
Aber die CPU und auch nicht jeder hat soviel anderen Kram den du aufgelistet hast, eingebaut.
Aber es wird langsam sehr Offtopic.
Ein 650w NT reicht auch für einen 5950x + 6900xt aus man muss nämlich beachten, dass beim gaming die CPU niemals 200w aus der Dose lutscht und vorallem dann nicht, wenn man beides @ stock betreibt - 300w GPU - 142w CPU
Egal.
Um auf die ursprungliche Frage einzugehen, wenn einem DLSS und RT in einigen Titeln wichtig ist, dann die 3080Ti, wenn man auf DLSS und RT verzichten kann, dann die 6900XT.
Zuletzt bearbeitet:
https://www.mindfactory.de/product_...evil-Aktiv-PCIe-4-0-x16--Retail-_1388403.html
PowerColor 6900XT Red Devil bei Mindfactory im Angebot noch 50 Stück von 300?
Zusammen mit Far Cry 6 + Resident Evil
Mehr Leistung für weniger Geld durch die 2 Spiele geht zur zeit nicht.
https://www.amd.com/de/promotions/game-bundle-radeon-6900xt
AMD hat auch FSR
und Ich finde das AMD FSR funktioniert ein bischen besser von der Qualität als das Nvidia DLSS. Wird sehr gut in dem Video gezeigt.
Hier ist die Auflistung aller Spiele die FSR untersützen
https://www.caseking.de/blog/mehr-fps-mit-amd-fidelityfx-super-resolution/
wie ich schon sagte, in Anbetracht der Preise sehe Ich keinen vorteil mehr zu einer RTX 3090 gegenüber einer 6900XT
https://www.amd.com/de/technologies/radeon-software-fidelityfx-super-resolution
und ihr könnt ruhig behaupten das Ich mehr zu AMD stehe, dazu steh Ich weil AMD hat es sich einfach verdient nachdem Sie mit DLSS einfach mal den Boden gewischt haben in den AMD Büros
mehr muss man dazu nicht sagen
PowerColor 6900XT Red Devil bei Mindfactory im Angebot noch 50 Stück von 300?
Zusammen mit Far Cry 6 + Resident Evil
Mehr Leistung für weniger Geld durch die 2 Spiele geht zur zeit nicht.
https://www.amd.com/de/promotions/game-bundle-radeon-6900xt
Ergänzung ()
nur wem RayTracing wichtig ist.Verangry schrieb:Um auf die ursprungliche Frage einzugehen, wenn einem DLSS und RT in einigen Titeln wichtig ist, dann die 3080Ti, wenn man auf DLSS und RT verzichten kann, dann die 6900XT.
AMD hat auch FSR
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
und Ich finde das AMD FSR funktioniert ein bischen besser von der Qualität als das Nvidia DLSS. Wird sehr gut in dem Video gezeigt.
Hier ist die Auflistung aller Spiele die FSR untersützen
https://www.caseking.de/blog/mehr-fps-mit-amd-fidelityfx-super-resolution/
wie ich schon sagte, in Anbetracht der Preise sehe Ich keinen vorteil mehr zu einer RTX 3090 gegenüber einer 6900XT
https://www.amd.com/de/technologies/radeon-software-fidelityfx-super-resolution
Ergänzung ()
und ihr könnt ruhig behaupten das Ich mehr zu AMD stehe, dazu steh Ich weil AMD hat es sich einfach verdient nachdem Sie mit DLSS einfach mal den Boden gewischt haben in den AMD Büros
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
mehr muss man dazu nicht sagen
Zuletzt bearbeitet:
Von einigen Dubiosen Seiten und Zeitschriften wird behauptet das DLSS eine bessere Qualität bietet.
Aber hier ein zweites unabhängiges Video, vllt hab Ich ja einen knick in der Optik aber das Bild sieht mit FSR nach meinem Geschmack besser aus.
Aber hier ein zweites unabhängiges Video, vllt hab Ich ja einen knick in der Optik aber das Bild sieht mit FSR nach meinem Geschmack besser aus.
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
Ähnliche Themen
- Antworten
- 33
- Aufrufe
- 2.596
- Antworten
- 23
- Aufrufe
- 2.295
- Antworten
- 13
- Aufrufe
- 858
- Antworten
- 46
- Aufrufe
- 3.666
- Antworten
- 39
- Aufrufe
- 3.968