AMD6800XT vs. NV3080 -16GBVram vs. DLSS/RT

Kafkaesk

Cadet 4th Year
Registriert
Jan. 2014
Beiträge
116
1. Wie viel Geld bist du bereit auszugeben?
700€

2. Möchtest du mit der Grafikkarte spielen?
  • WQHD (2560x1440)
  • Ultra
  • 144 FPS
3. Möchtest du die Grafikkarte für spezielle Programme & Anwendungen (z.b. CAD) nutzen? Als Hobby oder bist du Profi? Welche Software wirst du nutzen?
Videoschnitt/Bearbeitung (Hobby)

4. . Wieviele und welche Monitore möchtest du nutzen? Wird G-Sync/FreeSync unterstützt? (Bitte mit Link zum Hersteller oder Preisvergleich!)
Dell S2721DGF, später einen zweiten Monitor in 4K für den Videoschnitt

5. Nenne uns bitte deine aktuelle/bisherige Hardware:
  • Prozessor (CPU): … Zen3


Hallo zusammen,

auch wenn es zurzeit wegen der grottigen Verfügbarkeit ein eher "theoretisches" Problem ist, würde ich doch gerne mal darüber diskutieren, wie der Vergleich der beiden Flagschiffe von AMD und Nvidia aussehen könnte.

Mal angenommen, man könnte beide Karte gerade für den UVP erwerben...
Rein von der Rasterisierungsleistung sind beide Modelle ja relativ ähnlich.
Ausschlaggebend wäre für mich deshalb die 16GB VRAM auf der Seite von AMD und die stärkere RT-Leistung und DLSS auf Seiten von Nvidia.

Zum Beispiel sieht der Youtuber "Digital Foundry" Nvidia aufgrund der RT-Features und dem Machine Learning leicht im Vorteil.


Was denkt ihr?
 
Bei der Rasterisierungsleistung liegt die AMD Karte vorne. Die Karte hat auch ein weitaus höheres OC Potential. Vermutlich limitiert hier AMD auf 2800Mhz weil diese sonst zu nah an die 6900xt reichen würde.

Die AMD Karte ist die schnellere und mit mehr Speicher. Wohingegen die Nvidia Karte die besseren Features mitbringt (RT, DLSS, Low Latency). Vermutlich wird die Nvidia Karte auch die besseren Treiber und besseren Support haben.

Bei deinen Anforderungen würde ich klar zur AMD 6800xt greifen. Aber mit 700 Euro wirst du leider das nächste halbe Jahr nicht hinkommen.
 
  • Gefällt mir
Reaktionen: Kafkaesk
Sebastian2003 schrieb:
Aber mit 700 Euro wirst du leider das nächste halbe Jahr nicht hinkommen.

Da wäre ich mir nicht so sicher. Nachdem jetzt ja doch eine Woche nach "Release" der 6000er Partnerkarten einige bei den Händlern rausgegangen sind und die Verfügbarkeit der vor einem Monat releasten 5000er CPUen ja auch langsam aber sicher besser wird (gibt hier im Forum ja sogar Leute mit zwei 5950x) denke ich schon, dass die Preise im Januar/Februar Richtung UVP kommen könnten. Vielleicht ist das noch zu optimistisch, aber dass es bis Mai dauert kann ich mir beim besten Willen nicht vorstellen.
 
  • Gefällt mir
Reaktionen: Kafkaesk
Spielst Du mit RT dann ist die RT6800 XT ganz klar mit der 3070 zu vergleichen.
Die 3070 hat insofern eigentlich keinen Speichernachteil, da sie für 4K auf DLSS zurückgreifen muss.

Insofern dies geschieht - sind die 8 GB völlig ausreichend.

Bei der Rasterleistung ist die 6800XT jedoch ganz klar bei der 3080 anzusiedeln und hat hier, rein technisch betrachtet, dann Vorteile durch den Speicher. DLSS und RT dabei gänzlich außer acht gelassen.
 
  • Gefällt mir
Reaktionen: Kafkaesk
Keine leichte Entscheidung, beide Architekturen haben ihre Stärken und Schwächen. Wenn dir RT und DLSS wirklich wichtig ist, wirst du wohl nicht um Ampere herumkommen, bei reiner Rasterizing-Leistung in WQHD sehe ich aber auch Big Navi vorne, falls dir das wichtiger ist. Bezüglich VRAM tät ich mir in WQHD ehrlich gesagt keine Sorgen machen, grad bei einer 3080 mit 10GB, selbst mit einer 3070/8GB würd ich mir keine allzu großen Sorgen machen.
Weil du Videoschnitt erwähnst: hast du dir angeschaut, wie die Karten in deiner bevorzugten Software performen? Da gibt es ja durchaus Unterschiede je nach Software, möglicherweise ist das für dich ausschlaggebend.
 
  • Gefällt mir
Reaktionen: Kafkaesk
stevefrogs schrieb:
Keine leichte Entscheidung, beide Architekturen haben ihre Stärken und Schwächen. Wenn dir RT und DLSS wirklich wichtig ist, wirst du wohl nicht um Ampere herumkommen, bei reiner Rasterizing-Leistung in WQHD sehe ich aber auch Big Navi vorne, falls dir das wichtiger ist. Bezüglich VRAM tät ich mir in WQHD ehrlich gesagt keine Sorgen machen, grad bei einer 3080 mit 10GB, selbst mit einer 3070/8GB würd ich mir keine allzu großen Sorgen machen.
Weil du Videoschnitt erwähnst: hast du dir angeschaut, wie die Karten in deiner bevorzugten Software performen? Da gibt es ja durchaus Unterschiede je nach Software, möglicherweise ist das für dich ausschlaggebend.
Unter der Prämisse, dass 10GB VRAM ausreichend wäre, dann gäbe aber doch kaum einen Grund AMD zu nehmen, oder?
Fakt ist doch, dass AMD große Schwierigkeiten hat, bei Raytracing mitzuhalten und auch die angekündigte DLSS Alternative AMD Fidelity FX Super Resolution wird diesen Unterschied wohl nicht wettmachen können.
Habe ich das richtig zusammengefasst?
 
RT ist noch in den Anfängen - und wie gut AMD da abschneidet, wird sich erst in kommenden Spielen zeigen, wenn die Spiele auch auf das RT von AMD zugeschnitten werden.

Von den Hardwarebasierten System auf Seiten NV hat man schon so einige kommen und gehen sehen - PhysX als Beispiel.. oder Hairworks ;)

Wenn du RT aber jetzt sofort nutzen willst und auch DLSS - ist momentan mutmaßlich NV die bessere Wahl.
 
Genau. AMD hat ne gute Karte, aber an die Nvidia reichen sie nicht heran. Zumal eben der Support bei AMD Grafikkarten grottig und die Unterstützung bei Games zum Teil zu wünschen übrig lässt.
 
White Cobra schrieb:
Zumal eben der Support bei AMD Grafikkarten grottig und die Unterstützung bei Games zum Teil zu wünschen übrig lässt.
Das seh ich wiederum anders... ich hatte mit keiner AMD Generation bisher Probleme.
Im Gegenteil, wurden AMD-Karten oftmals länger supported als die von NV.

Vega56 und 1070 waren mal Konkurenten, das kann man inzwischen nur noch belächeln wie weit die 1070 in neuen Games hinterherhinkt.
 
@Fuchiii Grad Vega ist doch das perfekte Beispiel, wie es nicht laufen soll: gab dieses Jahr diverse Spiele wo Vega wochen- oder monatelang komplett kacke lief (zB HZD, Project Cars 3, Total War: Troy, F1 2020, Trackmania, Halo 3) bevor dann irgendwann ein Treiber kam der die Performance auf ein normales Niveau gehoben hat. Und von sonstigen Treiberfeatures wollen wir bei Vega gar nicht anfangen, du hast auch heute noch kein PlayReady 3.0 auf den Karten und kannst damit maximal Netflix in 1080p schauen. Auf Nvidia Pascal Karten geht das bald 4 Jahre schon, bei Vega wird es AMD nie nachreichen, Polaris und Navi haben es bekommen. Primitive Shader waren auch nix und HBCC war auch nicht der große Wurf, den viele erwartet hatten.
Vega, wie auch schon Fiji davor, ist das hässliche Entlein in AMDs Lineup und taugt demnach leider nur als Negativbeispiel. Glaub mir, ich hatte bis Anfang September eine Vega, und das war der Grund wieso ich jetzt nach vielen Jahren erstmals wieder eine Nvidia Karte hab.

Kafkaesk schrieb:
Fakt ist doch, dass AMD große Schwierigkeiten hat, bei Raytracing mitzuhalten und auch die angekündigte DLSS Alternative AMD Fidelity FX Super Resolution wird diesen Unterschied wohl nicht wettmachen können.
Ja, die RT-Performance von AMD ist diese Generation einfach noch nicht auf Augenhöhe und man braucht jetzt auch nicht darauf hoffen, dass das irgendwelche Konsolenports für AMD rausreißen werden. Bezüglich Super Resolution gilt: ist eine offene Technologie, kann/wird Nvidia also auch implementieren und wird dort wohl nicht schlechter laufen, womöglich sogar besser, wenn es die Tensor Cores nutzen kann. Wenn dir diese Features was wert sind, dann ist Nvidia klar vorzuziehen. Falls es nicht so super wichtig ist, kann man mMn auch mit Big Navi nicht viel falsch machen, bei der jetzigen Verfügbarkeit würd ich es dann pragmatisch sehen: nimm das, was du zuerst für einen anständigen Preis in die Finger bekommst.
 
So unterschiedlich sind manchmal die Erfahrungen - ich hatte sowohl eine Vega56 als auch eine 1070 - die 1070 flog recht schnell wieder raus weil: deutlich langsamer als die Vega, Bildfehler in RDR2, mehr Probleme als bisher mit jeder AMD Karte gehabt :freak:

Das Vega auch nicht das gelbe vom Ei war seh ich ein, aber der support von NV, sobald mal eine neue Generation draußen ist, ist unter aller Sau ;)
 
@Fuchiii Dass die V56 schneller ist als eine 1070 würd ich nie abstreiten (solang der Treiber nicht limitiert, wie eben dieses Jahr wiederholt geschehen), mit ein bisserl UV+OC kann man jede V56 problemlos auf 1080 FE Niveau heben. Hatte aber so manche Bugs mit Vega, einschließlich jenen, wo sich der HBM nach einem Spiel nicht mehr runtertakten wollte und somit unnötigerweise 10W extra im Idle zieht, hat mich irrsinnig genervt, ist auch ein Problem das es bei Vega schon seit dem Launch gab und je nach Treiber mal verschwand und dann auch einfach ein paar Versionen später wieder kam. So sehr ich die 280X davor geliebt habe (die auch wahnsinnig gut gealtert ist), mit der Vega hatte ich immer Bauchschmerzen, hätte ich sie nicht echt günstig bekommen (Warehouse Deal), hätte ich es definitv bereut.

Zurück zum OP: auf jeden Fall tät ich mir noch Videoschnittbenchmarks anschauen, wenn du sowas häufiger machst, ich kenn mich mit dem Thema persönlich nicht aus, aber kann mir vorstellen dass da bei manchen Szenarien vielleicht VRAM der Trumpf ist, während andere Programme vielleicht von Nvidia Cuda zB profitieren.
 
  • Gefällt mir
Reaktionen: Fuchiii
Kafkaesk schrieb:
1. Wie viel Geld bist du bereit auszugeben?
700€

2. Möchtest du mit der Grafikkarte spielen?
  • WQHD (2560x1440)
  • Ultra
  • 144 FPS
3. Möchtest du die Grafikkarte für spezielle Programme & Anwendungen (z.b. CAD) nutzen? Als Hobby oder bist du Profi? Welche Software wirst du nutzen?
Videoschnitt/Bearbeitung (Hobby)

4. . Wieviele und welche Monitore möchtest du nutzen? Wird G-Sync/FreeSync unterstützt? (Bitte mit Link zum Hersteller oder Preisvergleich!)
Dell S2721DGF, später einen zweiten Monitor in 4K für den Videoschnitt

5. Nenne uns bitte deine aktuelle/bisherige Hardware:
  • Prozessor (CPU): … Zen3


Hallo zusammen,

auch wenn es zurzeit wegen der grottigen Verfügbarkeit ein eher "theoretisches" Problem ist, würde ich doch gerne mal darüber diskutieren, wie der Vergleich der beiden Flagschiffe von AMD und Nvidia aussehen könnte.

Mal angenommen, man könnte beide Karte gerade für den UVP erwerben...
Rein von der Rasterisierungsleistung sind beide Modelle ja relativ ähnlich.
Ausschlaggebend wäre für mich deshalb die 16GB VRAM auf der Seite von AMD und die stärkere RT-Leistung und DLSS auf Seiten von Nvidia.

Zum Beispiel sieht der Youtuber "Digital Foundry" Nvidia aufgrund der RT-Features und dem Machine Learning leicht im Vorteil.


Was denkt ihr?
Meiner Meinung nach RTX 3080, bessere Treiber, DLSS 2.0 was in 4k nochmal 20-30fps gibt, Raytracing, 10GB Vram reichen völlig aus, hat schnelleren Vram, bei AMD musst du hoffen das der nächste treiber nicht zu abstürzen führt.
 
Heute Gerade die RX 6800 verbaut
Super Leise, aber doch etwas heiss aber im Grünen Bereich.
2250 Stock bis 2400 und auch 2450 Mhz kein Problem, aber da wirds schon lauter da Lüfter höher als Stock drehen müssen.
Dann reicht die Karte bis auf knappe 10% an eine XT ran.

PS:
Mafia Defi. Stock 6800 um die 52 bis 57 fps unter 4K
 
Ich habe mich für die 6800 XT entschieden, da ich 10 GB VRAM bei einer so teuren Karte als unangemessen empfand, die 6800 XT in WQHD leicht besser performt und sie mehr OC-Potential als die 3080 hat.

Ist meine erste AMD-Karte und ich kann natürlich noch nicht beurteilen, ob es langfristig die richtige Entscheidung war. Die Tatsache, dass AMD-Karten nach mehreren Jahren meist besser performen als ein damals gleichwertiges Nvidia-Pendant, finde ich sehr interessant, daher habe ich mich mal auf das Experiment eingelassen.
 
Mehr vram wird sich in Zukunft besser auszahlen als die dxr Leistung

Erste next gen spiele für xsx zeigen es schon jetzt 8gb vram sind das minimum (in FHD)
10gb gerade noch ausreichend
12gb ideal
16gb vram bisschen zu viel.
mit dxr sind erst 12gb vram ausreichend

Was sich ändert
ab dann wenn die UE5 von Entwicklerstudios eingesetzt wird. und erste games damit kommen (2023)
Wird sich zeigen wie man mit dem neuen ansatz nanite Texturen erstellt werden oder ob man fertige streamt
man wird wohl wegen cpu Entlastung mehr auf streaming setzen.
DXR wird in UE5 teilweise genutzt besonders mit lumen (Beleuchtung) da könnte sich die derzeitigen gpu gen ampere und amd rdna2 als minimum mit 32 und 40 RA oder 30 RT herausstellen

Wie sehr man direct storage für Reduzierung des vram bedarf nutzen kann ist offen.
Wenn wird die vram über dem ram gepuffert.
Letzterer lässt sich leichter aufrüsten.
aber um da keine fatale Einbrüche in fps zu haben wird sich wohl DDR5 durchsetzen
Somit profitiert man nur noch vom pcie bus zur m2 bei Ladezeiten.
Fazit mehr vram macht mehr Sinn als die derzeitige dxr Leistung die sich durch treiber Anpassungen stark verändern kann.
AMD RA Einheiten sind ein ganz anderer Ansatz als nvidia rt Einheiten
bei amd liegt eine höhere cpu last an als bei nvidia wo maßgeblich die shader stärker beansprucht werden.
Das upscaling ist kein plus für nvidia eher ist es die Kapitulation das tensor cores das denoising nicht wirklich implementiert werden kann in Echtzeit.
Da ist amd Ansatz mit super resolution upscaler besser weil es dann auf basis von rückwärts Komprimierung vorgeht.
quasi ein Verdopplung der pixel bis Vervierfachung mit ein denoising für Aliasing das zwangläufig entsteht.
das bleibt im kern nativ hat aber starkes alasing sofern nicht gefiltert wird.
Damit erreicht man nicht mehr details sondern steigert lediglich die Leistung.
Also kommt es auf die basis der texturen an.
Mit dxr könnte das die Lösung sein die besser ist als nvidia AI trainierte Formeln was zu Fehlern neigt.
Zumal das super resolutuion ohne Anpassung der games bereitstellen lässt.

Vieles wird in den neuen engines vorreitend UE5 sich ändern.
Direct storage könnte neue Konzepte von gamedesign ermöglichen und HDD Speicherplatz sparen
eventuell wenn der ram schnell genug ist (ddr5 wird es sein) sogar vram einsparen
UE5 nanite könnte dynamisch die Texturen erstellen lassen anstatt stumpf diese von HDD zu laden
UE5 lumen könnte jegliche shadow light maps überflüssig machen was designer zeit spart
Und die stufen lose Auflösung Skalierung der UE5 könnte massiv Rechenleistung einsparen.

Epic ist nicht das einzige studio das ihre engine anpassen wird für xsx und ps5
ich erwarte von square enix ubisoft capcom und co auch eigene verbesserte engines.
Das was allen gemein sein wird das sie die vorhandene nutzbaren 12gb vram der ps5 und xsx ausnutzen werden.
Spätestens 2024 werden 8gb vram zu wenig sein (nativ) für neue games.
Der einzige Lichtblick bleibt das wenn ein upscaler genutzt wird dann 8gb vram ausreichen werden
Was dann die 50% sind und etwa 720p entspricht mit allen nachteilen der Auflösung limitierung.
Nvidia wird erst q4 2021 ihr lineup komplett umgestaltet haben
Somit ist die erste ampere gen für max 2 Jahre haltbar. und das im high end abseits deren überteuerten rtx3090
,man kann quasi nur amd gpu kaufen bis q4 21
Mein tipp rx6700xt oder 6700
ich warte bis die rtx3060 mit 12gb vram kommt aber vor q4 2021 sehe ich die nicht vielleicht wird diese dann rtx4060 heißen
Das ich mal eine gpu 5 Jahre im betrieb habe hätt ich mir nie erträumt.
 
Zurück
Oben