6800XT gegen RTX 3080 tauschen?

Captain Mumpitz schrieb:
@K3ks ist leider ein weitbekanntes Problem bei AMD, schon seit Jahren. Multimonitor ist problembehaftet, sofern dann noch unterschiedliche Panels, Auflösungen, Wiederholraten oder gar 1x Freesync und 1x ohne dazu kommen, wird's richtig lustig.
Bei 2 genau baugleichen Monitoren ist man noch mit am besten aufgestellt.
Puhhhh! Nur nVidia hat das Hz Problem mit 2 Monitoren. Mir wäre nicht bekannt, dass das jemals eine AMD Karte gehabt hätte. nVidia kann kein Multimonitoring, dass sage ich schon seit Jahren.

Das ist der Grund, warum ich meine beiden Monitore so ausgesucht habe, wie ich es getan habe. Und trotzdem kommt es zu Mega-Lags beim wechseln von Medien.

Kein Wunder, nVidia hat kaum Erfahrung mit Multimonitoring. Erst 2020 haben sie angefangen mit Maxtor zusammenzuarbeiten. Vorher gab es nur Maxtor mit AMD. (BTW Eyefinity stammt auch von AMD)

FreeSync und Gsync Monitore mit einem 2ten Monitor ohne FreeSync oder Gsync ist noch mal ne ganz neue Baustelle. Und hat auch mit den unterschiedlichen Versionen von den beiden Technologien in ihrem eigenen Kosmos zu tun.
 
Taggo schrieb:
Der Trend in welche Richtung das ganze geht in Zukunft
Du redest dich doch nur aus dem Thema raus, weil Du konkret absolut keine Beispiele hast, die das was Du argumentierst auch untermauert. Es gibt schlicht nicht genug Spiele aktuell, bei denen eine 16Gb 6800 "objektiv "besser" ist als eine 10GB 3080 - als das die Argumentation greifen würde. Punkt.

Von "Zukuft" redet hier abgesehen von Dir niemand. Und in "Zukunft" ist eine 3080 mit 10GB genauso Kacke, wie ne 6800 mit 16GB ...und noch weiter in der Zukunft ist ne 4070 kacke, ne 7800XT auch und ne 4090 auch ...

nighti schrieb:
Mit einer Nvidia Karte kein Thema.
Ich hab dasselbe Problem mit ner 3080. Also an AMD und NVIDIA liegt DAS nicht.

AYAlf schrieb:
Puhhhh! Nur nVidia hat das Hz Problem mit 2 Monitoren.

Ich hab 3 Monitore ...einer Läuft mit 144Hz - 2 laufen auf 60Hz. Ich hab kein "Hertz" Problem. Will sagen: pauschal ist die Aussage nicht korrekt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Wan900, Apo und OSx86
Captain Mumpitz schrieb:
ich weiss nicht, wer jemals ernsthaft der Meinung war, dass 30fps in CP (oder überhaupt einem first person Spiel) super spielbar seien
Ich, bis ca 2004
 
  • Gefällt mir
Reaktionen: Apo, K3ks und AwesomSTUFF
AwesomSTUFF schrieb:
...witzig oder? Beim Release von CP2077 fanden ja "Viele" noch, dass es ab 30FPS (Rasterisierung only) "spielbar" wäre. Heute sind 40FPS mit RTX "kein Land mehr sehen" ;P
Na ja, als Cyberpunk rauskam, habe ich es mit der 3080TI auf 3440 x 1440 bei so ca. 55-60 fps als low fps gespielt. (zumindest zeigte mir das Afterburner an. Ob das nun die absoluten low fps waren oder nicht,
habe ich nicht extra per Tool ermittelt. Ist mir auch wurscht, solange es sich flüssig anfühlt. Es war für mich spielbar, ohne Frust bezüglich Frame Einbrüchen.
Ich weiß jetzt nicht mehr ganz genau, welche Voreinstellung für DLSS.
Wenn die das Spiel jetzt noch langsamer mit RT gemacht haben, dann gehe ich in der Auflösung eben eine Stufe runter. Für die Coder würde das aber eher nicht sprechen, an sich eher gegen sie.

Tauschen würde ich die 6800XT aber auch nicht, ich habe selbst noch eine hier.
Die 16 GB wird man sonst sicher in naher Zukunft vermissen, NVidia will es zwar nicht wahrhaben, bringt aber immer wieder Speicherkrüppel raus. Ich konnte meine 3080 NON-LHR kostenneutral gegen die 3080TI tauschen, denn es war Mining Zeit. Also habe ich die 12 GB gern genommen, auch wenn es gegen die 6800 XT immer noch arm war.
Ergänzung ()

Ayo34 schrieb:
Würde aber auch lieber auf eine 4000er Karte sparen. Lieber eine 4070 mit 12GB als eine 3080 mit 10GB. Zudem sind die 4000er Karten einfach fast 100% effizienter geworden. Das ist normal der Sprung von zwei Generationen. Dazu DLSS3, neue Tensor Cores usw. Eigentlich gehts mit Raytracing erst aber 4000er Generation richtig los.
Ende 2023 ist eine Karte mit 12 GB nicht mehr zeitgemäß, egal wer sie herstellt.
Von den 8 GB Dingern fangen wir dann besser gar nicht an.
 
1696428742975.png



Ich wollte hier keine Grundsatzdiskussion anstossen 🙈. Aber bitte friedlich bleiben....
 
  • Gefällt mir
Reaktionen: Apo und AwesomSTUFF
feris schrieb:
Ich weiß jetzt nicht mehr ganz genau, welche Voreinstellung für DLSS.
Naja afaik gab es beim CP Release in dem Game kein DLSS. Und ne 3080Ti st nochmal ne ganz andere Nummer als ne 3080 ;)

Das man "in Zukunft" mehr VRAM brauchen wird, steht nicht zur Debatte. Es geht darum, ob eine 6800 mit 16G HEUTE tatsächlich "besser" ist als eine 3080 mit 10G.
 
  • Gefällt mir
Reaktionen: Apo
Harter Thread als 3080-10G-Besitzer... An alle mit der "die 3080 sieht kein Land mehr" Meinung:

Ich spiele CP2077 mit Raytracing und DLSS quality mit fast allen Reglern am Anschlag mit im Durchschnitt 60-70 fps... Mehr frames gibt es beim Runterregeln oder deaktivieren von Raytracing. Keine großen Einbußen.
Ich spiele das Spiel und benchmarke es nicht dauernd.

Warum ich das erwähne? Weil es subjektiv ist. Nicht jeder braucht immer sofort die schnellste Karte zum glücklich werden. Von "unbenutzbar" ist die 3080-10G sehr weit entfernt.

Zum Thema: Ich denke, der Wechsel bringt leistungstechnisch nicht viel, es sei denn du möchtest RT ausprobieren. Dann kannst du es machen. Ich würde an deiner Stelle einfach mit der 6800XT glücklich sein, oder gleich ne 4070TI + kaufen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Odessit, Apo und feris
AwesomSTUFF schrieb:
Ich hab dasselbe Problem mit ner 3080. Also an AMD und NVIDIA liegt DAS nicht.
&%$! Das gibt es doch nicht.
<- Als ich die Jahre mal Multi Mon genutzt hatte (jetzt nur ne AMD und ein Moni) lief bei mir alles...
Klingt nach Lotto. :(:rolleyes:
 
VRAM kann man nie genug haben.
COD MW2, Al Mazrah DMZ, max Details mit echten FPS , ohne FSR/DLSS Murks usw werden auf 3440*1440 ganze 22 GB VRAM gefüllt !!
 
AwesomSTUFF schrieb:
Das man "in Zukunft" mehr VRAM brauchen wird, steht nicht zur Debatte. Es geht darum, ob eine 6800 mit 16G HEUTE tatsächlich "besser" ist als eine 3080 mit 10G.
In jeglicher Hinsicht. Das du das als 3080 besitzer nicht wahrhaben willst ist nicht mein Problem. Du bist auch schlicht zu faul selbst auf CB zu Recherchieren.

Im Fall des TE und darum geht es hier ja im Thread ist es schlicht ein Downgrade.


Und nun bekommst du deinen Lolli wieder und alles ist gut ;)
 
AwesomSTUFF schrieb:
Naja afaik gab es beim CP Release in dem Game kein DLSS. Und ne 3080Ti st nochmal ne ganz andere Nummer als ne 3080 ;)

Das man "in Zukunft" mehr VRAM brauchen wird, steht nicht zur Debatte. Es geht darum, ob eine 6800 mit 16G HEUTE tatsächlich "besser" ist als eine 3080 mit 10G.
Stimmt, bin nach den ersten katastrophalen Tests erst mit dem Patch und DLSS eingestiegen.

In Anbedacht, dass eine 10 GB Karte vermutlich schneller im Recycling landet, als eine 16 GB Karte, steht es schon zur Debatte. Es sei denn, man schließt von vornherein aus, speicherhungrige Spiele spielen zu wollen.
 
AYAlf schrieb:
Es hätte kein DLSS bedurft, wenn es kein RTX gäbe.

DLSS kann man trotzdem getrost auch ohne Raytracing benutzen.
Ergänzung ()

Kann mal jemand 1-2 Beispiele bringen für spiele, welche in WQHD 10GB in die Knie zwingen, aber auf der 6800XT mit angenehmen 60fps laufen?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: maxi_rodriges
spw schrieb:
COD MW2, Al Mazrah DMZ, max Details mit echten FPS , ohne FSR/DLSS Murks usw werden auf 3440*1440 ganze 22 GB VRAM gefüllt !!
Ich spiele in 4k, alle Regler rechts und bei meiner 4080 werden meist 15,5GB reserviert.
Tatsächlich im usage sind es dann aber immer um die 12GB rum. Dürfte bei ner XTX nicht anders sein.
 
  • Gefällt mir
Reaktionen: Odessit und Sinatra81
@Captain Mumpitz Dein Screenshot ist ja auch mit Raytracing Overdrive.
Wenn man sich mit Raytracing Ultra begnügen kann, wird es schon besser:
Komplett ohne RT braucht es natürlich gar kein Upsampling.
1696430335625.png


Und meistens geht ja auch Freesync bis 45-50Hz runter, so wäre es es wahrscheinlich für meisten angenehm spielbar.
 
  • Gefällt mir
Reaktionen: Captain Mumpitz
@ruthi91 um ehrlich zu sein hab ich mich einfach auf den aktuellsten Bench bezogen.
Was es mit Overdrive zb genau auf sich hat, weiss ich gar nicht (und es interessiert mich halt auch ned ^^)
 
Sinatra81 schrieb:
Kann mal jemand 1-2 Beispiele bringen für spiele, welche in WQHD 10GB in die Knie zwingen, aber auf der 6800XT mit angenehmen 60fps laufen?
Ganz sicher dabei ist FH5, habe das spaßeshalber mal nachgeschaut. Weil es ja zu unterschiedlichsten "Qualitätseinbußen" kommt. Das kommt immer auf die Programmierung des Spiels und Engine an.
Bei FH5 fehlen dann ganze Texturen oder es kommt zu Mikrorucklern.

Spiele aber auch in UWQHD + QHD Stream.
Und dafür war definitiv die RTX 3080 (10) ein Fehler. Die RTX 3080 (10) ist in UWFHD i.O.
 
ruthi91 schrieb:
Komplett ohne RT braucht es natürlich gar kein Upsampling.
Das finde ich so unglücklich formuliert.

Denn auch ohne RT kann man mit Dlss einen Performance Sprung oder die Reduzierung des Verbrauchs, Abwärme bzw Lautstärke erwirken. ☝️
 
  • Gefällt mir
Reaktionen: Apo und ruthi91
Ich halte den Tausch für nicht sinnvoll im Bezug auf RTX.

Die Karten haben unter RT eine bessere Performance als AMD, aber aus meiner Sicht noch nicht die endgültige Leistung um RTX vollumfänglich bei stabilen Bildraten zu genießen, vor allem nicht ohne DLSS. Also zumindest aus meiner subjektiven Wahrnehmung und meinem FPS empfinden. Gibt ja auch Leute, die mit 30FPS zufrieden sind.

Die 10GB + die höhe Leistungsaufnahme der RTX 3080 wären dann für mich ausschlaggebend, den Tausch nicht durchzuführen.

Es sei denn du hast Spiele in deiner Bibliothek, die deutlich unter AMD leiden. Die 10GB der 3080 werden in den meisten Fällen noch reichen, aber es ist halt die Frage wie lange du von der Karte etwas haben möchtest.

LG!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: nighti
Ich persönlich hab nur Erfahrung in 3 Spielen mit DLSS (Quality), CP2077, Diablo4 und Tarkov und in allen 3 finde ich es besser als nativ oder sehe im Fall von Diablo4 Unterschiede nur mit der Lupe.
Man hat Kantenglättung automatisch mit drin und es reduziert Flimmern bzw. es gibt keins mehr.
Mit dazu gibts eben noch mehr fps bzw. wenn im fps cap weniger Verbrauch. WinWin.
 
  • Gefällt mir
Reaktionen: Apo und Sinatra81
Zurück
Oben