Test Resizable BAR im Test: Nvidia GeForce RTX 3080 mit „rBAR“ im Vergleich

@Stock86 :
Ich würde es etwas von der Leistung in den eigenen Spielen abhängig machen, weniger vom Raytracing, es sei denn, dass Du dieses Feature unglaublich gut findest. Der VRAM der 6900XT lockt, dass kann man schon nachvollziehen und AMD harmonisiert mit AMD sehr gut. Wir haben letztens erst ein System mit Ryzen 5 5600X und einer Radeon X5700XT gebaut und dieses performt sehr gut zusammen.
Da kannst Du nur mal nach Benchmarks und Erfahrungen schauen, besonders in Spielen mit Deiner Auflösung. Denke mal, dass AMD in einigen Spielen mit dem VRAM und Ultra Texture Packs ein Plus ausspielen kann. NVIDIA hingegen ist durch seine Verbreitung für viele wahrscheinlich nur fühlbar (die Denke) das rundere Paket. Warum will denn Dein Bekannter lieber die RTX3080? Wegen RT?
Bezüglich rBAR: Dies ist aktuell und mit Deiner sowieso performanten Ausstattung, meiner Meinung nach kein Kriterium in Verbindung mit der RTX3080. Ich habe es zwar bei mir auch an, aber ich erwarte eher im Min fps Bereich Besserungen, die meine schon etwas betagte i7 8700K CPU entlasten. Du hast ja mit dem 5900X ja schon so viel mehr Power und doppelt soviele Kerne. Noch etwas: Bei NV arbeitet rBAR per Whitelist, muss also von NV für jedes Spiel erst "freigeschaltet" werden. Zur Zeit spiele ich zB Outriders und das ignoriert die rBAR Geschichte noch komplett.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Dittsche und Stock86
@BorstiNumberOne vielen Dank für die ausführliche Antwort. :)

Er wird die Grafikkarte (egal ob meine 3080 oder die 6900XT) direkt weiterverkaufen und erhofft sich an der 3080 vermutlich einfach mehr Gewinn.

Raytracing habe ich bisher nur in Cyberpunk kurz getestet, aber ist für mich bisher noch kein nonplusultra Feature und kann daher auch drauf verzichten.

Die Frage ist hauptsächlich ob es einfach Sinn macht und den "Aufwand" (müssten die Karten per Post tauschen, Treiber, Garantie läuft über den jeweils anderen, etc. ) wert ist oder ob sich beide Karten eigentlich nichts geben.

Edit: Sind Schwachpunkte beim Referenzdesign der 6900XT bekannt? Lautstärke und Temperaturen waren im CB Test ja eigentlich in Ordnung.
 
  • Gefällt mir
Reaktionen: BorstiNumberOne
Wegen der Garantie müsst ihr eigentlich nur gegenseitig eine Abtretungserklärung machen, dann ist das bei seriösen Händlern kein Problem. Tja, es steht und fällt mit den eigenen Spielen in Verbindung mit Deiner hohen Auflösung... und ob da 16GB VRAM wirklich etwas bringen, also wirklich verwendet und nicht nur allokiert werden.
 
  • Gefällt mir
Reaktionen: Stock86
Stock86 schrieb:
oder ob sich beide Karten eigentlich nichts geben.
Die 6900XT rennt der 3080 in manchen Games der klassischen Rasterisation durchaus davon, aber generell liegen sie sehr dicht beieinander, das nimmt sich nichts über alles. Die 6900XT ist dann den Tacken flotter.

Für das Gefühl können die 16 GB VRAM netter sein, aber unter UWQHD = 3440x1440 = 5 Mio Pixel, sehe ich die 10 GB VRAM sowieso nicht als irgendeinen Faktor an, den wir hier besprechen müssten.

Die Frage ist, wie lange die GPU nutzen willst. 2-3 Jahre?
Wenn Du jetzt auf Raytracing und DLSS verzichtest (ohne DLSS wäre Nvidia mit Raytracing ebenso mühselig und unspaßig btw), kann das ärgerlich sein, wenn Du es doch vermisst.

Was ist, wenn Far Cry 6 und Witcher das 3 "Remake" mit Raytracing und DLSS punkten?
Was ist, wenn Du Metro Exodus oder Control mal auf Deinen Spielplan legst, die durch Raytracing erheblich bereichert werden?

Wenn Dir das, also die Nvidia Featuresets mit DLSS, Gsync, Nvenc, Shader+FX ingame Overlays etc. "egal" sind, würde ICH die 3080 gegen die 6900XT tauschen, die ist im Mittel in RTX off noch mal den Funken schneller. Und hat 6 GB VRAM on top, was vielleicht (!) längerfristig bei den Frametimes hilft.
 
  • Gefällt mir
Reaktionen: Stock86
@Stock86
Die Karten sind gleichwertig, und bis auf DLSS nehmen die sich nichts. Ist deine geplante Nutzung 1-2 Jahre werden dich die 10 GB RAM nicht tangieren.
 
  • Gefällt mir
Reaktionen: BorstiNumberOne, Laphonso und Stock86
@Stock86 Für mich wäre ausschlaggebend ob mein Monitor G-Sync / Free-Sync kann. Wenn er beides kann ist es egal, kann er nur eins davon behalte m.E. die Karte die sowas unterstützt.

@Topic Schöne Sache mehr FPS für alle, endlich wieder Wettbewerb. Gut für die Kunden! :)
 
  • Gefällt mir
Reaktionen: Laphonso und Stock86
Danke euch allen. Aber ich merk schon. Ein klares Ja oder Nein gibt es da scheinbar nicht. Sondern es liegt viel an den eigenen Präferenzen. Da diese Grafikkarte vermutlich "nur" 2-3 Jahre genutzt wird und ich in diesem Zeitraum auf jeden Fall auch bei meinem Monitor und der Auflösung 3440x1440 bleiben werde, mache ich mir dann erstmal keinen Stress und belasse das System so wie es ist.

@Gnasher mein Monitor kann tatsächlich beides. Wäre als kein Kriterium.
 
  • Gefällt mir
Reaktionen: BorstiNumberOne, bad_sign und Laphonso
Wir haben seit Jahren mal wieder die Qual der Wahl und das sogar bei GPUs und CPUs :)
 
  • Gefällt mir
Reaktionen: BorstiNumberOne und Laphonso
bad_sign schrieb:
Wir haben seit Jahren mal wieder die Qual der Wahl und das sogar bei GPUs und CPUs :)
Jain.. ich sehe AMD und Nvidia auf Augenhöhe bei GPUs

Aber
Intel und AMD bei CPUs nicht..
bis 8kerne ist die Leistung ähnlich.. darüber hat Intel nix..
und das was sie haben säuft zuviel Strom
Von den Preisen mal abgesehen.. da steht Intel nur bei einzelnen CPUs gut da.. der Rest ist leider im Vergleich zu teuer
 
@Berserkervmax

Ich habe nun tatsächlich durch den Gigabyte Support ein Beta BIOS für mein X299 UD4 bekommen, womit Resize Bar funktioniert. Tolle Entwicklung durch AMD, dass ich da mit meinem alten Intel/Nvidia Setup gratis mehr Performance bekomme :)

1619175768874.png
 
  • Gefällt mir
Reaktionen: Dittsche, Kryss, BorstiNumberOne und eine weitere Person
@Stunrise
Das ist echt nice! 👍

@Blackfirehawk
Naja finde ich nicht ehrlich gesagt dass man da die Wahl hat. Raytracing und 4k, kommt aktuell nur nvidia infrage. Hohe rasterized fps AMD.
Von der Verfügbarkeit und gimmicks wie voice, Reflex usw ganz zu schweigen...
Man muss also nehmen was man kriegen kann und nicht was man wirklich braucht.

Vg Chris
 
@Blackfirehawk fürs Gamen hat man die Wahl, bei allem was die CPU wirklich nutzt hat man AMD oder einen starken Kompromiss, das stimmt.
 
DX12, rBAR und PCIe 4.0 sind ja krasse Game Changer also noch heftiger als 4K, HDR und Quantum Dot ! :lol:
 
Ich warte ersmtmal ab habe 3090rtx 165hz monitor asus,165bilder ohne rbar.Was will ich mehr.Zocke wqhd dirt5 und alles was es so gibt aucht metro exudos oder alle lara titel.
 
Ich bekomm es mit meinem asus b550-f gaming wifi und dem aktuellen NVIDIA treiber nicht hin, hab aktuelles BIOS auf MB und GraKa, aber selbst nach BIOS defaults wird es nicht erkannt
 
noctum schrieb:
Ich bekomm es mit meinem asus b550-f gaming wifi und dem aktuellen NVIDIA treiber nicht hin, hab aktuelles BIOS auf MB und GraKa, aber selbst nach BIOS defaults wird es nicht erkannt
Du musst rbar im Bios aktivieren, desweiteren muss Deine Boot Partition gpt und nicht mbr sein und csm deaktiviert.
 
Northstar2710 schrieb:
Du musst rbar im Bios aktivieren, desweiteren muss Deine Boot Partition gpt und nicht mbr sein und csm deaktiviert.
ja, alles so eingestellt, aber nicht aktiv laut GPUz oder Nvidia Sysinfos
 
Zuletzt bearbeitet:
Zurück
Oben