Rtx 3080 oder RX 6900Xt

DLSS 2.1 ist schon ziemlich gut, und mit DLSS 3.0 werden keine Games mehr "trainiert" werden müssen.
Eine Neuimplementation seitens AMD wird in etwas so aussehen wie der Abstand jetzt zwischen AMD und Nvidia im Bereich Raytracing.

Schon die alten Konsolen basierten auf AMD Technik (CPU+GPU) und es brachte keinen "Optimierungsvorteil".

Die jetzigen Karten liegen FPS technisch Kopf an Kopf, die 3080 hat halt den Schwachpunkt mit den 10GB, während der Infinity-Cache bei AMD bei 4K nicht mehr zur Kompensation des schmalen Interfaces ausreicht.

Dazu das Gesamtpaket von Nvidia. RTX, DLSS, RTX Voice, Shadowplay, die Rohleistung wenn alle Cuda Cores FPU Befehle bekommen - 33TFlops vs. 23TFlops.

Wenn du schon eine 3080 hast, würde ich nicht tauschen. Wenn du mit der 3080 unzufrieden bist dann vielleicht nächsten Monat auf die 3080ti gehen, die hat die Rohleistung einer 3090 und bekommt 20GB. Da ist sie dann in allen Belangen wieder vor AMD.

Edit:
Und bis AMD bei Big Navi HDMI 2.1 "freischaltet" wird noch Zeit ins Land gehen:

Google Translate:
Footnote on HDMI 2.1 features of the Radeon RX 6000 series at the time of publication: At the time of writing, some HDMI 2.1-specific functionality of the Radeon RX 6000 series is turned off in the driver. This concerns Variable Refresh Rate (VRR) and Display Rate Compression (DRC), where these features have compatibility issues with most popular TVs.

According to AMD, they are currently working with TV manufacturers, including Samsung and LG, to implement measures via new firmware versions. Only when these updates are in place will the company unlock support for VRR and DRC in the driver.

Source:
https://www.sweclockers.com/test/30790-amd-radeon-rx-6800-och-rx-6800-xt/4
 
  • Gefällt mir
Reaktionen: Shadow0083
FreedomOfSpeech schrieb:
DLSS 2.1 ist schon ziemlich gut, und mit DLSS 3.0 werden keine Games mehr "trainiert" werden müssen.
Seit DLSS 2.0 müssen keine Spiele mehr trainiert werden.
Ergänzung ()

Shadow0083 schrieb:
habe auch irgendwo auch gelesen zu haben das amd mit Microsoft an ener DLLS alternative arbeiten
Ja, man liest viel. Die Realität: MS macht was DirectML basiertes für die xbox. AMD macht was generisches namens FidelityFX Super Resolution. Aber das ist nicht ML basiert.
Und Sony kocht auch sein eigenes Süppchen.

Nvidia user denken sich: DLSS hab ich bereits jetzt. Bis die anderen auf den Stand von DLSS heute kommen werde, wird es noch einige Zeit dauern. Und selbst wenn. FFX SR wird auch mit nvidia Karten nutzbar sein.
Ergänzung ()

Shadow0083 schrieb:
Was haltet ihr eigentlich auch davon das die neuen Konsolen komplett auf AMD Technik basieren und dadurch die kommenden Spiele auch in diese Richtung besser optimiert werden oder denkt ihr das Nvidia weiterhin die Nase vorne habe wird
Dazu sage ich: Bei der letzten Konsolengeneration (GCN) war das auch schon so. Und AMD Usern hat es jetzt nicht soo viel gebracht. Die PC Userbase wird nach wie vor stark grün geprägt sein. Daher wird das zum einen nicht links liegen gelassen, zum anderen wird nvidia auch weiterhin die Entwickler bei vielen AAA Titeln unterstützen.
 
Ich bin von einer 5700xt auf eine 3070 gewechselt. die Spiele mit der 3070 laufen butterweich; mit der AMD-Karte hatte ich zu Release eines neues Spiels oft Probleme in Richtung Mikroruckler. Aktuelles Beispiel ist Cold War. Lief mit der AMD Karte nicht sauber, mit der Nvidia-Karte schön smooth. Bei vorherigen Spielen hatte ich immer den Vergleich von Freunden mit einer 1080. Die liefen immer von Beginn an sauber. Modern Warfare war zu Beginn mit der 5700xt ein Krampf, weil laufend der Speicher vollgelaufen ist. Nach knapp einem viertel Jahr war es ordentlich gepatched. Bei der 1080 von Beginn an keine Probleme.

Ich hätte gestern oder vorgestern auch bei der 6900XT auf der AMD-Seite zuschlagen können, hab es aber gelassen. Sicher sind die 1000Euro generell etwas drüber, würde aber die 3080 unabhängig davon vorziehen.
 
  • Gefällt mir
Reaktionen: FreedomOfSpeech, darkspark, Shadow0083 und eine weitere Person
FreedomOfSpeech schrieb:
Edit:
Und bis AMD bei Big Navi HDMI 2.1 "freischaltet" wird noch Zeit ins Land gehen:

Google Translate:
Footnote on HDMI 2.1 features of the Radeon RX 6000 series at the time of publication: At the time of writing, some HDMI 2.1-specific functionality of the Radeon RX 6000 series is turned off in the driver. This concerns Variable Refresh Rate (VRR) and Display Rate Compression (DRC), where these features have compatibility issues with most popular TVs.

According to AMD, they are currently working with TV manufacturers, including Samsung and LG, to implement measures via new firmware versions. Only when these updates are in place will the company unlock support for VRR and DRC in the driver.

Source:
https://www.sweclockers.com/test/30790-amd-radeon-rx-6800-och-rx-6800-xt/4


Das ist Quatsch was du da erzählst. "Es wird Zeit ins Land gehen".
Die 6900XT macht genau das mit meinem CX48 wie die 3090 zuvor. (10bit RGB full - 120Hz - VRR).
 
  • Gefällt mir
Reaktionen: Ericus
blaizebulla schrieb:
Das ist Quatsch was du da erzählst. "Es wird Zeit ins Land gehen".
Die 6900XT macht genau das mit meinem CX48 wie die 3090 zuvor. (10bit RGB full - 120Hz - VRR).
Bei meinem C9 allerdings nicht, auch mit CRU nicht. Ich hatte die 6900XT eine Woche vor Weihnachten bekommen. 4k@120@VRR@10bit war zu keinem Zeitpunkt möglich. Das es bei dir funktioniert wird vielleicht daran liegen, dass auch dein CX nicht die vollen 48Gb über HDMI2.1 hat, sondern genau wie die Radeons nur 40Gb.

https://www.computerbase.de/forum/threads/lg-c9-6900xt-hdmi2-1.1991772/page-2#post-25138602
 
@FreedomOfSpeech
Die CX Serie hat in den Menüs einen extra Punkt, den man aktivieren muss: Freesync Premium Pro. Und es ist die erste Serie von LG, die AMD GPUs offiziell supportet.
Das hat die C9er Serie leider nicht (nur G-Sync)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Ericus
Rodger schrieb:
Das dein Super C9 bei 4K 120Hz keine BFI mehr kann und deswegen flackert ist dir auch noch nicht in den Sinn gekommen ?

BFI ist immer ausgeschaltet... Was flackert ist der Dell S3220DGF im Vollbildmodus. Und der flackert auch (Desktop) wenn am C9 gespielt wird. Du hast meinen Post / Thread gar nicht gelesen....

BFI verursacht ein 50Hz/60Hz Flimmern und ist gedacht um Bewegungsschärfe zu verbessern, nicht um Flackern zu verhindern. Das aktiviert man auch im TV und nicht im Treiber. Desweiteren ist es inkompatibel mit VRR.
Informier dich wenn du möchtest.

Das Problem mit GSync/Freesync/VRR wurde per Firmware gefixt.

In Zukunft BITTE erst lesen - verstehen, dann antworten pls.

Ergänzung ()

blaizebulla schrieb:
Das hat die C9er Serie leider nicht

Das stimmt, allerdings sollte VRR gehen, und das tut es nicht. Man kann mit CRU Freesync aktivieren allerdings funktioniert das nur von 40-60Hz.

Es müsste mit der Karte und dem C9 aber auf jeden Fall 4k@120@HDR OHNE Freesync/VRR gehen. Und das ist nicht der Fall.
 
Zuletzt bearbeitet:
An meinem CX funktioniert 4k 120hz 10bit hdr ybrc4.4.4. mit meiner 6900xt.
Ich würde die 6900xt behalten und die 3080 verkaufen, weil sie deutlich mehr RAM hat, weniger Strom verbraucht, mehr oc und uv potential hat und bis die Mehrleistung im Raytracing relevant ist noch einiges an Zeit vergehen wird. Außerdem bleibt ja auch noch abzuwarten, wie sich neuere Spiele mit Raytracing, die dann auch für AMD optimiert sind, schlagen werden.
 
Zuletzt bearbeitet:
Sofern man 3080&6900XT um die UVP bekommt ist m.E. die 3080 klar die bessere Karte,insbesondere was P/L angeht und weil Features wie DLSS&RTX on board sind auch wenn man persönlich nicht wert darauf legt.Bei Preisen um 1000 und mehr ist es keine leichte Entscheidung,da mit eintretender Verfügbarkeit die 3080 mit Sicherheit bei einem Verkauf mehr einbüssen wird vor allem wenn noch eine 3080 mit mehr Vram und gleicher Speicheranbindung kommt (wird aber sicher auch kein Schnapper).Dieses Argument verliert allerdings an Bedeutung wenn als Alternative die 6900XT mit 1400-1500 zu Buche schlägt.Die UVP der 3080 empfinde ich genau richtig/fair für so eine Karte wobei die UVP der 6900XT m.E. mindestens 150 zu hoch angesetzt ist.
 
  • Gefällt mir
Reaktionen: FreedomOfSpeech
Also in ersten angepassten Raytracing Games für Radeons liegt eine Radeon in nativen DXR Raytracing (kann sie ja nur, da noch keine DLSS Alternative) vor oder ganz knapp hinter der jeweiligen Nvidia Karte mit ebenfalls nativen DXR Raytracing. Wie gesagt bei Raytracing Games die für AMD leicht angepasst wurden u.a. Dirt 5, Watch Dogs Legions, WoW. Das zeigt, was die Radeons theoretisch leisten können, wenn es angepasst wird und da die Konsolen ebenfalls Raytracing mit RDNA 2 bekommen werden kann man zuversichtlich in die Zukunft gehen mit RDNA 2 Raytracing.

Problem ist nur, viele nehmen als Referenz exklusive High Nvidia Raytracing optimierte Games ran wie CoD, Control, Cyberpunk (gut da geht eh keine Raytracing für Radeons) und Battlefield. Nur das sind wie oben erwähnte Nvidia exklusive optimierte Games mit Raytracing ohne irgendwelche AMD Anpassungen (wird es denke ich auch nicht geben abgesehen von vielleicht Cyberpunk). Was soll denn da eine Radeon auch in Raytracing leisten? Ist doch klar das die da auch Mal bis auf 2080/2070 Niveau abfallen. Wie es besser geht zeigen neuere angepasste DXR Games. Da kann eine vergleichbare Radeon vor Nvidia Gegenpart liegen oder nur knapp (1-5 Fps) dahinter und das für die erste AMD Raytracing Generation ist nicht schlecht. Wenn dann noch Fidelity FX Super Resolution hinzu kommt plus dank den Konsolen neuere Games mit angepassten RDNA2 Raytracing sieht es nicht schlecht aus (soll jetzt nicht heißen das Nvidia dann nicht mithalten kann nein ganz im Gegenteil).

Also Ball Mal flach halten. Schauen wir Mal was 2021 passieren wird.
 
  • Gefällt mir
Reaktionen: Fighter1993 und Shadow0083
Naja das mag alles vielleicht irgendwann zutreffen und bis dahin zocke ich lieber mit einer 3080 für deutlich weniger Kohle (theoretisch).Nicht umsonst ist die 3080 die wohl begehrteste Karte im oberen Segment und kaum erhältlich.Ist genauso wie mit dem Vram bei der 3080.Sollte es irgendwann mal nicht passen und unbedingt mehr notwendig sein wird dann halt gewechselt wenn es soweit ist, auch auf eine AMD sofern der Gegenwert stimmt.Für 1000 und + bei einer 6900XT sind mir das persönlich zu viele wenn und aber sowie graue Theorie und selbst bei Gleichstand aller Optimierungen und Features wüsste ich keinen Grund wieso man 300 Euro mehr zahlen sollte bei ähnlicher Performance,so wie der Fall momentan.Da ist die Kohle doch in der nächsten Karte oder bei einer leicht schwächeren 6800XT m.E. besser investiert.Abgesehen davon sollte man auch keine hirnrissigen Preise für eine 3080 ausgeben und dann lieber direkt auf eine 3090 gehen wenn man meint sowas zu brauchen.
 
@Tornavida

Du magst wohl recht haben wenn einer das Glück hatte eines der sehr seltenen 3080FE zu bekommen aber wenn ich mir die Preise aktuell anschaue und die 3080 Tuf schon 900€ auf der orginal Seite von Asus kostet schaut es ganz anders aus
 
MMIX schrieb:
Wie gesagt bei Raytracing Games die für AMD leicht angepasst wurden u.a. Dirt 5, Watch Dogs Legions, WoW.
Gibt es, seit dem die Raytracing bei WD:L auf den AMD Karten behoben wurden, neue Benchmarks? Die alten sind nichts wert, weil damals RT nicht richtig funktioniert hat. Dirt 5 und WoW kannst du nicht mit Control, CP2077 usw. vergleichen, da bei den beiden RT nur für Schatten verwendet wird. AMD Karten benötigen inline Raytracing, damit sie ihre Performance ausspielen können. Das ist der Knackpunkt, da dies wiederum nicht für alle Szenarien optimal geeignet ist.
https://github.com/microsoft/DirectX-Specs/blob/master/d3d/Raytracing.md#inline-raytracing

BTW: WD:L ist genauso "Nvidia Optimiert" wie die anderen, die du genannt hast. Was du mit optimiert meinst ist, dass eben kein inline RT genutzt wird. Mit nvidia hat das recht wenig zu tun.

Wer mal etwas einblick bekommen möchte, wie das bei nvidia und AMD läuft, kann sich gerne mal diesen Issue ansehen:
https://github.com/NVIDIA/Q2RTX/issues/99

Der Entwickler von nvidia will helfen, gibt noch hinweise auf eine Treiberinstabilität seitens AMD. Er benutzt offensichtlich extra eine AMD Karte dafür und testet verschiedene Treiber. Aber hey, nvidia ist ja so böse und will AMD immer schlecht da stehen lassen.

Und noch eine Frage an die AMD Fraktion: Wieso wurde die Hangar Raytracing Demo nicht veröffentlicht? Warum wurde nur ein YT Video in 1080p (RX6900XT) hochgeladen? So hätte man schön eine AMD eigene Demo mit verschiedenen Karten benchmarken können und die eigenen Fans mit ihren Vermutungen bestärken können. Naja, wird schon einen Grund haben, weshalb sie es nicht gemacht haben. Dazu kommt halt, dass die Demo nichtmal wirklich überwältigend war. Das ist u.a. auch auf inline Raytracing zurückzuführen.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: FreedomOfSpeech
Shadow0083 schrieb:
eines der sehr seltenen 3080FE
sind die 3080FE Modelle eigtl sehr laut? stelle ich mir so vor, bei dem einen Lüfter.. ??
 
Zuletzt bearbeitet:
Zurück
Oben