Leserartikel Eyefinity und Vision Surround 2021

Aeromax

Commander
Registriert
Feb. 2011
Beiträge
2.347
Eyefinity und Vision Surround 2021

Es ist eine Weile her, dass ich etwas Sinnvolles im Forum beigetragen habe, doch durch einige aktuelle persönliche Upgrades und damit einhergehende Probleme und Ärgernisse hat sich da etwas ergeben. Daher möchte ich euch heute Eyefinity und Vision Surround mit aktuellen RDNA2 und Amperekarten vorstellen.

Eyefinity: Erklärung, Konfiguration, verwendete Hardware und Probleme

Der Anfang


Im September 2009 stellte damals noch ATI eine neue Grafikkarte vor, die Radeon HD 5870. Diese Karte war in vielerlei Hinsicht neu. Die RV870 „Cypress“ war die erste Grafikkarte für Endkunden, die DX11 fähig war, in 40nm produziert wurde und vieles mehr. Der für uns heute interessante Teil ist vieles mehr, vor allem Eyefinity. Seitdem gibt es bei Ati bzw. heute AMD dieses Feature.

Doch was ist Eyefinity eigentlich? Eyefinity ist ein Multimonitormanagement, das es uns ermöglicht, mehrere physisch einzelne Monitore zu einem Endgerät zusammenzufügen, das als großes, einzelnes Display erkannt und benutzt werden kann. Zu Beginn war die maximal mögliche Auflösung durch die DVI-Spezifikationen beschränkt und nur die Highendkarten konnten theoretisch eine Auflösung von 6 x 2560x1600@60Hz anzeigen. Bei der damaligen Rechenleistung war das allerdings nur ein Gedankenexperiment, das maximal im 2D-Betrieb umsetzbar war und das einige Voraussetzungen hatte. Bis zur HD 7xxx bzw. einigen Modellen der R9 Serie waren lediglich zwei Taktgeber in den Grafikkarten verbaut, sodass man für die Nutzung eines dritten Bildschirms einen aktiven Displayportadapter ergo einen dritten Taktgeber nutzen musste. Diese Adapter mussten extern erworben werden und waren anfangs durchaus teuer.

Neuere Karten – eigentlich das gesamte Highendsortiment seit der R9 290x – können problemlos drei und mehr Monitore betreiben und leiden zusätzlich nicht unter eingeschränkten Auflösungen abgesehen von den Begrenzungen durch die Spezifikation der Anschlüsse.

Warum Eyefinity?
Vor zehn Jahren waren 4K-Displays und WQHD Monitore der Traum einiger weniger Enthusiasten, doch keinesfalls für die breite Masse umsetzbar. Sehr teure und hochwertige Monitore waren teils in 2560x1600 aufgelöst, doch mehr gab es tendenziell nicht oder zumindest nicht mehr bezahlbar. 1920x1080 mauserte sich damals zum Standard und scheint das erschreckenderweise auch heute immer noch zu sein. Durch die Kombination von drei recht preiswerten Full HD Monitoren, einer Highendkarte bei AMD und evtl. einem aktiven miniDP-Adapter konnte man ein sinnvolles Eyefinitystarterpaket aufbauen ohne dabei arm zu werden.

In Zeiten von WQHD Displays und gewaltigen Monitoren wie dem Samsung Odyssee G9 muss man sich allerdings tatsächlich fragen, ob Eyefinity noch sinnvoll ist oder ob nicht besser doch zu einem einzelnen großen Display gegriffen werden sollte. Selbigen Gedankengang hat man wohl auch bei AMD gehabt und ist zu einem definitiven Ergebnis gekommen, doch dazu später mehr. Ich möchte hier zuerst eine Lanze für die Multimonitorsetups brechen. Seit 2012 (damals mit Team grün) nutze ich mindestens drei Monitore an meinem Computer und möchte nicht mehr davon weg. Besagte Ultrawidemonitore habe ich gesehen und ausprobiert, doch der Funke ist nicht übergesprungen. Der Grund dafür ist einfach und vermutlich für jeden von euch, der mit mehreren Monitoren arbeitet, nachvollziehbar. Auch wenn es schöne wäre, kann nicht jede Minute, die man vor dem Rechner verbringt, mit Spielen verbracht werden. In der Zeit, die man mit Produktivarbeit verbringt, schlägt das Konzept mehrerer einzelner Monitore einen Ultrawide jederzeit. Ein Meeting in der Mitte, Spreadsheets auf den Rechten und links der Zugang zum Intranet und das alles ohne jegliches Anpassen von Fenstern, extra Programmen oder manuelles Eingreifen.

Wenn man dann mal mit der Arbeit durch ist, nimmt man die drei Monitore und verbringt einige schönes Stunden in Night City, Los Santos oder an der Kaspischen Grenze.

Verwendete Hardware

Eyefinity macht mit zwei Monitoren äußerst wenig Sinn, da Fadenkreuze auf den Bezels lägen oder man einen halbierten Sportwagen betrachtet. Für das Optimum sollte es drei Monitore sein. Bei einer Auflösung von 5760x1080 würde das bereits bedeuten, dass die Grafikkarte uns 6,2 Millionen Pixel berechnen müsste, UHD hätte nur noch ca. 2 Millionen Pixel mehr, nur um eine grobe Hausnummer zu geben. Heute wollen wir uns allerdings nicht Eyefinity in 5760x1080 ansehen, wie es bereits in vielen Tests geschehen ist, sondern eine Stufe darüber, in 7680x1440, testen. Dafür muss unser armer Rechenknecht mehr als 11 Millionen Pixel berechnen und demensprechend viel Leistung sollten wir haben.

Zuallererst betrachten wir allerdings die verwendeten Monitore. Ein Upgrade war bei meinen Monitoren seit Jahren überfällig und ich habe Features wie 144Hz, Freesync und HDR nie privat nutzen können. Zu allem Überfluss waren es in meinem Fall auch noch unterschiedliche Monitore, ein einzelner von Philips in der Mitte und zwei Packard Bells außen. Nachdem ich bei meinem Bruder einen AOC WQHD mit aktuellem Featureset und einen Odyssee G9 bei meinem besten Kumpel erleben konnte, war klar, dass ein Upgrade kommen musste. Ich habe daher zu Beginn nach einem einzelnen Monitor gesucht, der die entsprechenden Features hatte und preislich im Rahmen war. Dazu wollte ich mir dann zwei Weitere in der gleichen Größe mit 60Hz aufstellen, damit ich besser arbeiten kann. Diese Vorgehensweise ist allerdings nicht empfehlenswert und wir gehen im Rahmen der Probleme noch auf die Gründe ein.

Nach einigen Tagen der Suche hatte ich allerdings immer noch nichts gefunden und habe schließlich bei Caseking in der Übersicht etwas entdeckt. LG verkaufte bei einer UVP von 300€ für 250€ den 32GN600B. Der Monitor war auf dem Papier nahe am Optimum für Eyefinity. 32 Zoll, QHD, 165Hz, Freesync. Zwar nur HDR10 und 5ms Reaktionszeit, aber ich bin weder besonders kompetitiv in Spielen, noch wäre HDR10 nicht schon x-mal besser als ein acht Jahre alter Packard Bell Viseo.

Bei der restlichen Hardware gibt es eigentlich nichts weiteres Spezielles zu beachten, außer dass es nie zu viel Rechenleistung gibt und auch wenn der Zeitpunkt aktuell schlecht ist, das meiste Geld für die Grafikkarte ausgegeben werden sollte.

Hier das alte Setup:

1627045778228.png

Und dann das Neue:
20210717_140407.jpg


Der Rest des Systems besteht aus:

AMD Ryzen 9 5900X@4,60GHz@Kraken X62

32GB Crucial DDR4 3400

AMD Radeon RX 6800XT MB @2,7GHz@300W

MSI X470 Gaming Plus Max

1600W Superflower Leadex

Aerocool Strike X ST

1TB Crucial P2

Adrenalin 21.7.1

Probleme bei der Konfiguration

Ich will es nicht beschönigen, aber es gibt leider einige Probleme bei Eyefinity. Die Konfiguration von lediglich drei Monitoren erweist sich als problemlos. Man muss die Monitore lediglich in der Windowsanzeige richtig anordnen und ein einziger weiterer Klick auf AMD Eyefinity legt das Setup an.
1627045843174.png

Der Gegencheck unter Windows bestätigt es, man hat nun eine nutzbare Auflösung von 7680x1440.
1627045865532.png


Hierzu muss allerdings einiges angemerkt werden. AMD Referenzkarten verfügen über zwei DP 1.4, einen HDMI 2.1 und einen Typ C. Zwei Monitore können problemlos über die Displayports angeschlossen werden. Sie werden mit QHD, 165Hz und HDR erkannt und funktionieren. Der dritte Monitor muss entweder via Typ C oder HDMI angeschlossen werden. Meine beiden neu gekauften Typ C – DP Kabel waren leider nicht dafür tauglich, den Monitor mit mehr als 60Hz zu betreiben. Der Wechsel auf HDMI 2.1 sollte diesbezüglich Besserung bringen, doch falsch, der 32GN600 hat HDMI-Ports, allerdings keine HDMI 2.1 Ports. Daher muss der dritte Monitor nun leider mit 144Hz und ohne HDR auskommen. Um die gesamte Auflösung zu aktivieren, müssen daher die anderen beiden Monitore ebenfalls auf 144Hz reduziert werden.

Ein weiteres Problem fällt auf, wenn mehr als drei Monitore an der GPU genutzt werden sollen. Wie auf meinem Bild zu sehen ist, hängt da noch ein älterer Fernseher, den ich angeschlossen hatte, damit darauf TS, Afterburner o.ä. laufen können. Drückt man mit solch einer angeschlossenen Kombo im Treiber auf AMD Eyefinety, so wird der vierte Bildschirm in das Setup integriert – ob ihr wollt oder nicht. Abhilfe schafft EyefinetyPro, ein AMD-Tool, das sich allerdings versteckt, AMD traut uns wohl den Umgang damit nicht zu.

Ihr findet es unter C:\Program Files\AMD\CNext\CNext

Öffnet man die Anwendung wird man von diesem Screen begrüßt.
1627045881379.png

Hier werden alle Anzeigegeräte aufgelistet, die gerade vorhanden sind. In meinem Fall sind es gerade nur drei Monitore, doch wenn es bei euch vier sind, ist das Vorgehen identisch. In der linken unteren Ecke ist das Layout wählbar.

Nun wählt man 3x1 und kann dann aus den gelisteten Geräten die richtigen auswählen und auf die Positionen zuordnen. Der vierte Bildschirm kann dabei ignoriert werden, er kann danach mittels den Windowsanzeigeeinstellungen beliebig verändert werden und ist autark vom Eyefinetysetup. Beim Layoutmodus konnte ich keinen Unterschied zwischen den verschiedenen Presets feststellen und habe ihn daher immer auf Fit belassen.
1627045900773.png

Jetzt ist das Setup zumindest erstmal eingerichtet, Zeit es auszuprobieren. Nur noch schnell etwas im Browser… verdammt, jetzt werden alle Fenster, die ich öffne, über drei Bildschirme maximiert. So ist der Computer nicht nutzbar. Abhilfe kann man schaffen, indem man die Fenster manuell zurechtzieht und die Positionen immer beibehält. Das ist aber einerseits zeitaufwendig und andererseits maximal unpraktisch, wenn ein Fenster hinzukommt oder auf einen anderen Monitor wandern soll.

Daher empfehle ich PowerToys. Das Tool ist recht einfach zu bedienen und bietet mit der Funktion Fancy Zones eine einfache Lösung des Problems.
1627045921702.png

Hier kann die riesige Monitorfläche sinnvoll unterteilt werden. Wählt man das Preset „Spalten“ können die drei Monitore defacto als einzelne Bildschirme genutzt werden. Die einzige Umgewöhnung ist, dass Fenster nun per Windows + Pfeile verschoben werden müssen und man nicht mehr auf maximieren klicken darf, da ansonsten immer noch alle drei Monitore ausgefüllt werden. Damit ist der Computer nun zumindest nutzbar.

Probleme bei Spielen

Doch die Probleme sind damit noch nicht beendet. Das eine oder andere Spiel hält noch Überraschungen für uns bereit.

Battlefield 3
1627045940963.png

Battlefield 3 mag uns keine GUI anzeigen, dafür sieht es immernoch hübsch aus.

Call of Duty Warzone

1627045958942.png

Kein weiterer Kommentar.

Cyberpunk 2077
1627045975593.png

Dieser Screenshot zeigt Cyberpunk 2077 im Menü. Dieses ist bei 2/3 des mittleren Monitors abgeschnitten und damit ist das Spiel eigentlich nicht nutzbar. Wird die Auflösung dagegen auf 5760x1080 reduziert, läuft alles problemlos.

Ich könnte an dieser Stelle sicher noch zig weitere Spiele aufzählen, die verzogene Loadscreens (GTA IV), ein falsches Seitenverhältnis ingame (COD 4 – 8), eigenartiges Tearing (Rage 2) oder andere Probleme haben, doch der Konsens dabei ist, dass man davon ausgehen sollte, das lediglich Triple A Titel mit DX11/12 halbwegs ordentlich funktionieren. Bei allen anderen Spielen kann man es versuchen und im Notfall wird das Eyefinitysetup deaktiviert und auf einem Monitor gespielt. Zusätzlich gibt es Widescreen Fix Pro, das in vielen Spielen eine Korrektur der Seitenverhältnisse ermöglicht, sodass sie doch noch genutzt werden können. Ich würde die Nutzung dennoch nicht empfehlen, da z.B. Cutszenes nicht angepasst werden und entsprechend schlecht aussehen.

Vision Surround 2021

Nach Eyefinity geht es nun um Nvidias Vision Surround.

Vision Surround: Erklärung, Konfiguration und verwendete Hardware

Vision Surround hat bei Nvidia kurz nach AMDs Eyefinity begonnen. Die ersten Karten, die dafür nutzbar waren, sind die GTX 4xx, Fermi oder auch Grillforce Thermi, weil sie so kalt waren. Vision Surround ist Nvidias Antwort auf Eyefinity und war daher anfangs von ähnlichen Problemen gequält. Ich habe mit dieser Technik das erste Mal exzessiv Multimonitoring erlebt und habe nicht allzu positive Erinnerungen aus dieser Zeit mitgenommen.

Springen wir kurz zurück ins Jahr 2010, genauer ans Ende des Jahres 2010. Nvidia hatte nach durchaus verheerender Kritik an den originalen Fermikarten einen Refresh gelauncht. Der GF110 alias GTX580 war der Vollausbau von Fermi und sollte an den neuralgischen Punkten wie Lautstärke und Kühlung ansetzen. Der Speicherbus, die Architektur, der Speicherausbau und vor allem das I/O blieben allerdings gleich. Anfang 2011 habe ich mir damals daher eine GTX480 im Referenzdesign günstig besorgt. Weniger als ein Jahr nach Release eine Grafikkarte für weniger als die UVP zu erhalten war damals anders als heute Standard und mit einem EKL Peter war auch das Temperaturproblem schnell gelöst. Die GTX480 verfügte wie auch ATIs HD5870 allerdings nur über zwei Taktgeber und man musste mit 2 DVI-Ports und einem mHDMI Vorlieb nehmen. Ich habe daran zwei Monitore in FHD betrieben und war eigentlich recht zufrieden. Durch einen glücklichen Zufall habe ich im Freundeskreis sehr günstig eine weitere GTX480 erstehen können und habe mir diese daher eingebaut.

Mein Setup sah grauenhaft aus, funktionierte allerdings echt gut.
1627046093659.png

So sah das dann damals wie heute in der Systemsteuerung aus.
1627046106797.png


Aktivierte man allerdings SLI, konnte man ein interessantes Detail entdecken. „Mit Surround über die Anzeigen verteilen“ war damals und ist heute die Konfiguration für jedes Nvidiabasierte Multimonitorsetup. Ich wollte das durchaus mal testen und habe mir daher kurzerhand einen weiteren Monitor besorgt. Der enorme Vorteil, den AMD damals bot war, dass lediglich eine Grafikkarte mit aktivem Displayportadapter für den Betrieb dreier Monitore nötig war. In Ermangelung eines DP-Anschlusses war das bei den Fermikarten nicht möglich und eine zweite Grafikkarte mit einem weiteren Taktgeber wurde nötig. Wollte man lediglich drei einzelne Monitore nutzen, konnte man z.B. eine günstige G210 verbauen, die den dritten Bildschirm befeuerte. Leider ließ sich so aber kein Surroundsetup zum Spielen einrichten, dafür wurden zwei gleiche GPUs benötigt.

Mit dem Setup aus zwei GTX480 konnte man das Ende 2011 erschienene Battlefield 3, bis heute eines meiner liebsten Spiele, in 5760x1080 spielen. Der Stromverbrauch und die Lautstärke waren allerdings krass und auch die Framerate war suboptimal. Danach begann für mich eine bis zur GTX1080 andauernde Nvidiaabstinenz, in der Eyefinity und zwei R9 290 mein System befeuerten.

Nvidia erreichte relativ zeitgleich mit AMD durch mehr Taktgeber bei Kepler, dass mehr als zwei Monitore an einer Grafikkarte betrieben werden konnten und seitdem ist Vision Surround auch mit SGPUs nutzbar.

Warum Vision Surround?

Hier berufe ich mich auf den og. Vorteile, die genannten Argumente zählen für beide Seiten. Zusätzlich könnte man anführen, dass bis zum Erscheinen von RDNA wahrscheinlich mehr Enthusiasten Nvidiaprodukte verwendet haben und daher mehr Ressourcen in die Entwicklung geflossen sind.

Verwendete Hardware

Der Systemaufbau ist relativ ähnlich geblieben. Ich habe das Mainboard durch ein MSI B550 Gaming Carbon Wifi ersetzt und aus Fairnessgründen im UEFI PCI-E Gen. 3 forciert. Zusätzlich kam eine Palit RTX 3090 GamingPro OC zum Einsatz, bei der das Powertarget maximiert und ein Offset von +100MHz auf die GPU und +150MHz auf den Speicher gegeben wurde. Ich nehme es gleich vorweg, damit mir niemand unterstellen kann, ich wäre ein Fanboy: Diese RTX3090 ist wohl eine der schlechtesten, die man so kaufen kann. Die FE hat ein Powerlimit von 350W, das man um 14% erhöhen kann. Die Palitkarte hat die gleichen 350W zur Verfügung, allerdings können sie hier nur um 4% erhöht werden. Zusätzlich ist mein Exemplar leider auch kein guter Overclocker, ich habe aber mein Bestes gegeben.

Der Rest des Systems besteht aus:

AMD Ryzen 9 5900X@4,60GHz@Kraken X62

32GB Crucial DDR4 3400

Palit RTX 3090 GamingPro OC @ca. 1.9Ghz, maximales PT@364W

MSI B550 Gaming Pro Carbon Wifi

1600W Superflower Leadex

Aerocool Strike X ST

1TB Crucial P2

Treiberversion 471.41

Probleme bei der Konfiguration

Glücklicherweise gibt es hier weniger Probleme beim Einrichten des Setups. Die drei Monitore können an der RTX 3090 mittels Displayport angeschlossen werden.
1627046132011.png


Anders als bei AMD muss man nicht in verwinkelten Pfaden nach Konfigurationstools suchen, sondern kann einfach die im Treiber gegebenen Optionen nutzen.
1627046148356.png


Hier wählt man die gewünschten Monitore aus und kann problemlos den vierten Bildschirm oberhalb oder daneben getrennt von dem Vision Surround Setup einstellen. Ein womöglich kriegsentscheidender Vorteil ist allerdings das Zonenmanagement. Auch nach der Einrichtung von Vision Surround kann man ohne weitere Tools und Tricks seine Monitore im Desktopbetrieb wie Einzelbildschirme nutzen. Wird ein Fenster auf dem linken Bildschirm maximiert, füllt es auch nur diesen aus und breitet sich nicht über die gesamten Bildschirme aus. Dabei lassen sich auch weiterhin beliebige windowseigene Shortscuts nutzen, lediglich die Teilung von Einzelbildschirmen in zwei Fenster funktioniert nicht und man erhält Fenster, die sich jeweils über 1,5 Bildschirme erstrecken.
1627046166553.png

Der Treiber bestätigt nach der Einrichtung sofort, dass das Setup erkannt wurde und auch hier kann man in Windows gegenchecken.
1627046241707.png

Weitere Probleme wie bei AMD sind mir nicht aufgefallen. Man könnte noch anmerken, dass – aber das trifft partiell auf beide Lager zu – die Grafikkarte bei solch einem Setup ihren Speicher nicht mehr im 2D-Takt betreibt. Dadurch ist – zumindest bei meinem Palit-Modell – der Zerofanmodus hinfällig und man hört die Grafikkartenlüfter ganz leise. Bei der Nvidiakarte war das z.B. Videos auf YT der Fall, während die AMD-Karte einfach permanent den maximalen Speichertakt nutzt.









Probleme bei Spielen

Hier gibt es einige Unterschiede. Battefield 3 hat mit der RTX 3090 seine GUI wiedergefunden und ist problemlos spielbar und auch das liebe Warzoneupgrade ist mittlerweile auf meiner SSD eingezogen.

Einzig und allein Cyberpunk zeigt sich kontinuierlich problematisch.
1627046257965.png

Genau wie bei Team Rot ist das Menü abgeschnitten und das Spiel nicht nutzbar. Alle weiteren getesteten Titel haben sich ordentlich benommen und es hat echt Spaß gemacht.
 

Anhänge

  • 1627045756388.png
    1627045756388.png
    430,9 KB · Aufrufe: 289
  • 1627045778228.png
    1627045778228.png
    468 KB · Aufrufe: 427
  • 1627045792707.png
    1627045792707.png
    430,9 KB · Aufrufe: 389
  • 1627045843174.png
    1627045843174.png
    140,2 KB · Aufrufe: 377
  • 1627045881379.png
    1627045881379.png
    69,1 KB · Aufrufe: 391
  • 1627045900773.png
    1627045900773.png
    51 KB · Aufrufe: 374
  • 1627045921702.png
    1627045921702.png
    33,5 KB · Aufrufe: 376
  • 1627045940963.png
    1627045940963.png
    206,4 KB · Aufrufe: 378
  • 1627045975593.png
    1627045975593.png
    41,5 KB · Aufrufe: 380
  • 1627046106797.png
    1627046106797.png
    64,8 KB · Aufrufe: 376
  • 1627046132011.png
    1627046132011.png
    190,1 KB · Aufrufe: 372
  • 1627046148356.png
    1627046148356.png
    135,4 KB · Aufrufe: 363
  • 1627046166553.png
    1627046166553.png
    157,2 KB · Aufrufe: 371
  • 1627046282241.png
    1627046282241.png
    178,3 KB · Aufrufe: 359
  • 1627047148736.jpeg
    1627047148736.jpeg
    128,8 KB · Aufrufe: 364
  • 1627047155149.jpeg
    1627047155149.jpeg
    155,9 KB · Aufrufe: 347
  • 1627047160563.jpeg
    1627047160563.jpeg
    182,3 KB · Aufrufe: 350
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: juwa, PhantomFFR, Mayhem und 3 andere
Benchmarks

Jetzt geht’s um die Wurst und die Frage, ob man in solchen Auflösungen ordentlich spielen kann, soll beantwortet werden. Meine Methodologie dafür ist recht simpel gehalten. Mit der maximal möglichen Übertaktung werden sowohl die RX6800XT, als auch die RTX3090 auf die og. Spiele losgelassen. Sicher wären die Karten bei Standardtaktraten besser vergleichbar gewesen, doch bei mehr als 11 Millionen Pixel benötigt man jedes letzte Quäntchen Leistung und ich bin mir sicher, das auch alle der hier Anwesenden ihre Karten in vernünftigem Rahmen übertaktet haben.

Alle Benchmarks wurden mit Capframe aufgezeichnet und auf einem frisch installierten System durchgeführt. Ich habe die jeweiligen Benchmarkabläufe in QHD aufgezeichnet und verlinkt, damit die Szenen nachvollziehbar sind. Ich habe der Einfachheit halber versucht, Settings zu finden, die für die jeweiligen Spiele mMn. Sinn machen, d.h. ein Shooter bekommt Setting, die für hohe FPS sorgen, während z.B. GTA mit niedrigeren FPS auskommt. Spiele, die bereits mit Ultrasettings ordentliche Frameraten erreichen, habe ich nicht nochmal mit geringeren Settings getestet. Spiele, die in dieser Hinsicht problematisch waren, habe ich auf spielbaren Settings nochmals getestet.
Battlefield V

Benchmarkszene

Hier sind die getesten Settings aufgelistet:

Dazu kam das spielinterne Preset „Mittel“.

RX 6800XT

FPS:
bfv rx6800xt mittel fps.JPG


Frametimes:
1627046346958.png

Preset „Ultra“

FPS:
1627046360772.png

Frametimes:
1627046374415.png

Mit diesen Settings ist BFV leider absolut unspielbar, wie man den Frametimes auch ansieht. Ich habe den Benchmark mehrmals durchgeführt, auf Hintergrundprozesse gecheckt und die GPU-Temperaturen überwacht, doch kein Problem gefunden.

RTX 3090

Preset „Mittel“

FPS:
1627046404822.png

Frametimes:
1627046420363.png


Preset „Ultra“

FPS:
1627046433311.png


Frametimes:
1627046445623.png

Hier war die Erfahrung wesentlich angenehmer, doch da BFV wohl kaum im Singleplayer gespielt wird, kann ich eigentlich bei beiden Karten nur zu mittleren Details raten, wenn ein wirklich flüssiges Erlebnis gewünscht wird.

Cyberpunk 2077

Benchmarkszene

RX 6800XT

Hier Screenshots der Settings zu erstellen ist leider aufgrund des og. Fehlers sinnlos.

Preset „Mittel“

FPS:
1627046481170.png

Frametimes:
1627046493229.png

„Ultra Preset“

FPS:
cyberpunk rx6800xt ultra fps.JPG


Frametimes:
1627046522233.png


RTX 3090

Preset „Mittel“

FPS:
1627046543204.png

Frametimes:
1627046554989.png

Preset „Ultra“

FPS:
1627046568181.png

Frametimes:
1627046580253.png

Und nur zum Spaß noch mit Ultra und Raytracing:

FPS:
1627046647922.png

Frametimes:
cyberpunk rtx 3090 ultra + rt.JPG


Cyberpunk läuft leider auf beiden Karten recht bescheiden, sodass man für eine akzeptable Erfahrung unbedingt die Details verringern muss. An Raytracing ist in solchen Auflösungen einfach nicht zu denken.

Crysis 3

Benchmarkszene

RX6800XT

Preset „Hoch“

FPS:

crysis 3 rx6800xt hoch fps.JPG


Frametimes:

crysis 3 rx6800xt hoch frametimes.JPG


Preset „Ultra“

FPS:

crysis 3 rx6800xt ultra fps.JPG

Frametimes:

crysis 3 rx6800xt ultra frametimes.JPG


RTX 3090

„Preset Hoch“


FPS:
crysis 3 rtx3090 hoch fps.JPG

Frametimes:

crysis 3 rtx3090 hoch frametimes.JPG


Preset „Ultra“

FPS:

crysis 3 rtx3090 ultra fps.JPG

Frametimes:

crysis 3 rtx3090 ultra frametimes.JPG


Die Cryengine hat keinen besonders guten Ruf bezüglich Optimierung und stellt das hier gut unter Beweis. Sowohl Team Rot als auch Team Grün können bei hohen Details nicht ausgelastet werden und erzeugen durch schwankende Frametimes kein schönes Spielgefühl. Stellt man die Details auf Ultra + 8xMSAA fällt das Auslastungsproblem zwar weg, dafür sinkt die Framerate in den unspielbaren Bereich.

Far Cry New Dawn

Far Cry New Dawn habe ich nur auf Ultra getestet, da das Spiel auf beiden Karten wunderbare Frametimes und ca. 80-90fps erreicht hat, womit man ein angenehmes Spielgefühl hat.

Benchmarkszene

RX6800XT

FPS:

fc new dawn rx6800xt fps.JPG

Frametimes:
fc new dawn rx6800xt frametimes.JPG


RTX 3090

FPS:
fc new dawn rtx3090 fps.JPG


Frametimes:

fc new dawn rtx3090 frametimes.JPG


GTA 5

Benchmarkszene

GTA 5 kann mit jedem mehr oder weniger aktuellen PC gespielt werden und stellt eigentlich keinerlei Herausforderung dar. Daher habe ich die aktuelle iCEnhancer-Version installiert, die das Spiel verschönert und recht viel Leistung kostet.

RX6800XT

FPS:

gta5 rx6800xt fps.JPG


Frametimes:

gtx5 rx6800xt frametimes.JPG


RTX 3090

FPS:

gta5 rtx3090 fps.JPG



Frametimes:


gta5 rtx3090 frametimes.JPG

GTA 5 ist mit beiden Karten wunderbar spielbar. Ohne iCEnhancer erreicht man recht problemlos >120 FPS, wovon GTA meiner Meinung nach nicht wirklich profitiert.


Warzone

Benchmarkszene

Auch COD Warzone habe ich nur mit einem Setting getestet, da die Framerate bei niedrigeren Settings nicht signifikant besser wurde.

ModernWarfare_2021_07_18_16_02_33_849.jpg
ModernWarfare_2021_07_18_16_02_36_984.jpg
ModernWarfare_2021_07_18_16_02_29_786.jpg


RX6800XT

FPS:

warzone rx6800xt fps.JPG

Frametimes:

warzone rx6800xt frametimes.JPG


RTX3090

FPS:

warzone rtx3090 fps.JPG


Frametimes:

warzone rtx3090 frametimes.JPG

Vor dem Fazit möchte ich noch kurz auf die Grafikkarten und die Technologien eingehen.
Ergänzung ()

RX6800XT und Eyefinity

Vorteile:


Die RX6800XT ist mit einer UVP von 649€ meiner Meinung nach aktuell die beste Gamingkarte mit viel Potenzial für die Zukunft. Die für den Test verwendete Karte ist zugegebenermaßen ein unfairer Gegner für diese RTX3090, da sie die beste von acht getesteten RX6800XT ist und mit einem Powertarget von 300W anstatt 255W für die GPU betrieben wurde. Nachdem sie gegen eine RTX3090 antritt, ist der Verbrauch immer noch geringer. Dennoch sind die geringen Differenzen in den meisten Szenarien anhand des Preisunterschiedes kaum von der Hand zu weisen und zeigen, dass AMD wieder im Highendbereich angekommen ist.

Solche Ergebnisse unterstreichen das nochmals:
1627047307172.png

1627047311348.png

1627047316419.png

Nachteile:

Einige Nachteile, die ich dieser Karte anlaste, sind Softwareprobleme und sollten eigentlich von AMD korrigiert werden können. Die Konfiguration von Eyefinitysetups war zu Zeiten der R9 2xx und 3xx wesentlich leichter und konnte problemlos direkt im Treiber erledigt werden. Wozu wurden diese Funktionen in ein verstecktes Unterverzeichnis ausgelagert? Ein weiteres Manko ist die Zonenverwaltung, die Eingewöhnung erfordert. Nach der Konfiguration des Setups arbeiten wohl die meisten Nutzer weiter mit ihrem Computer. Dabei sollte es doch möglich sein, die Monitore im 2D-Betrieb ohne ständiges Umschalten einzeln zu nutzen. Schneidet euch doch bitte ein Scheibe bei Nvidia ab, da klappt das problemlos. Mein letzter Kritikpunkt betrifft wohl nur die Referenzkarten von AMD selbst in meiner Konstellation mit Bildschirmen ohne HDMI 2.1.

Warum haben diese Karten nur zwei Fullsize Displayports? Nvidia hatte bei Turing auf der RTX2080 und 2080ti ebenfalls den Typ C für VR-Headsets und diesen nun ausgemustert. Gleichzeitig hatten diese Karten aber drei DP-Anschlüsse. In Ermangelung des dritten DP-Ports musste ich mit 144Hz und ohne HDR auskommen, was sehr schade ist.

RTX3090 und Vision Surround

Vorteile:


Die RTX3090 verfügt neben drei vollwertigen Displayportanschlüssen über 24GB VRAM. Diese Ausstattung mag heute noch „nice to have“ sein, doch bald könnte sie in solchen Auflösungen nötig werden. Call of Duty Warzone hat mit seinem serienmäßigen Hightexturepack bereits >15GB VRAM auf beiden Karten belegt und neue Spiele werden aufgrund der neuen Konsolen sicher bald mehr Speicher benötigen. Man kann bei AMD nicht direkt von Treiberproblemen sprechen, sondern sollte die Kategorie Ärgernisse einführen. Letztendlich klappte die Konfiguration zwar, doch bei der RTX3090 funktionierte das Einrichten in jeglicher Hinsicht besser. Es ist kein Adapterkabel nötig, um die Monitore anzuschließen und die Einrichtung über den Nvidiatreiber ist ein Kinderspiel. Dazu können die vollen 165Hz der Monitore genutzt werden. In einigen Spielen waren außerdem die Minimum FPS wesentlich besser als bei der Karte des roten Teams.
1627047335727.png

warzone 3090.JPG

cyberpunk 3090.JPG

Nachteile:

Der offensichtliche Nachteil der RTX3090 ist ihr Preis. 1700€ für eine günstige Customkarte sind in Anbetracht ihrer Leistung ein schlechter Scherz. Sicher, sie hat DLSS und ist besser im Raytracing, doch -siehe Cyberpunk – ist es irrelevant, ob man nun 16 FPS erreicht oder 10, beides ist absolut unspielbar und für Raytracing in solchen Auflösungen ist die Karte einfach zu langsam. Ich wollte den Test ursprünglich mit einer RTX3080FE durchführen, doch die regelmäßigen VRAM-Auslastungen von deutlich >10GB sprachen dagegen und die 3080 ist daher für solche Unterfangen untauglich. An Vision Surround selbst habe ich nichts Weiteres auszusetzen, die Technologie funktioniert einfach.

Ergebnisse:
ergebnisse1.JPG

ergebnisse2.JPG

Fazit:

Der Sieger zwischen den beiden Karten ist in Anbetracht der Preise recht schnell ausgemacht. Die RX6800XT kann die RTX3090 in fünf Anwendungsfällen schlagen und fällt lediglich bei Nutzung der maximalen Settings minimal hinter die RTX3090 zurück. Diese erreicht dafür zumeist bessere Minimalfps und weniger häufige Framedrops. Abgesehen von den katastrophalen Rucklern in Battlefield V liefert die RX6800XT eine saubere Vorstellung ab und braucht dabei auch noch weniger Strom. Der RTX3090 muss hier nur zugutegehalten werden, dass sie mehr Reserven für zukünftige Spiele hat (24GB VRAM) und dass ich wohl ein weniger gutes Exemplar erwischt habe.

Auf der Softwareseite ist der Sieger ebenso schnell ausgemacht, Vision Surround ist wesentlich angenehmer zu konfigurieren und erfordert weder Vorwissen noch Recherche.

Falls ihr euch das wirklich bis hierher angesehen habt, danke ich euch vielmals fürs Lesen. Ich bin für Anregungen und Fragen jederzeit offen 😊
 

Anhänge

  • 1627047148736.jpeg
    1627047148736.jpeg
    128,8 KB · Aufrufe: 238
  • 1627047155149.jpeg
    1627047155149.jpeg
    155,9 KB · Aufrufe: 235
  • 1627047160563.jpeg
    1627047160563.jpeg
    182,3 KB · Aufrufe: 233
  • bfv rx6800xt mittel fps.JPG
    bfv rx6800xt mittel fps.JPG
    159 KB · Aufrufe: 230
  • bfv rx6800xt ultra fps.JPG
    bfv rx6800xt ultra fps.JPG
    165,9 KB · Aufrufe: 237
  • bfv rx6800xt ultra frametimes.JPG
    bfv rx6800xt ultra frametimes.JPG
    170,6 KB · Aufrufe: 229
  • bfv 3090.JPG
    bfv 3090.JPG
    27,5 KB · Aufrufe: 237
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: PhantomFFR
Seit ich meinen 40" bzw. später den 43" UHD-Monitor auf dem Schreibtisch habe fristet mein Vision-Surround-Setup aus 3x30" 2560x1600 Monitoren ein trauriges Nischen-Dasein.
Das ganze Surround-Thema hat für mich einen sehr sehr engen Rahmen: Cockpit-Games mit Lenkrad oder Joystick.
Alles andere funktioniert (meiner Meinung nach) auf einem Single-Display besser. Besonders wenn man noch ein Display hat das deutlich mehr Höhe (in Pixeln) bietet.
Mal schauen was die Zeit bringt. Eventuell mit 3x UHD wieder.

Trotzdem danke für Deine Mühe.
 
ja ka die schwarzen Rahmen würde mich glaub immer stören bei sowas das reisst mich aus der Immersion. Dann lieber nen 32:10 oder so auf den Tisch stellen.
 
Danke für den Test! Mein letzter Versuch mit 3 Monitoren ist jetzt gute 6 Jahre her. Ich fands geil, aber ich glaube nicht das ich das nochmal mache. Ich spiele meist in VR und wenn nicht, sorgt der 32:9 Monitor zur ordentliches Widescreen Feeling. Ist ein Kompromiss zwischen Bildbreite und Rahmen im Bild. 3x 16:9 ging für mich aber wegen der Rahmen garnicht, deshalb hatte ich mir dann n 21:9 Monitor in die Mitte gestellt. Das ging damals nur mit AMD, kann nvidia das inzwischen auch?
 
  • Gefällt mir
Reaktionen: Aeromax
Danke, fuer den Leseartikel :cool_alt:
Ich betrachte Suround-(Gaming) auch als "genussvolle Option":heilig:
Ja, leider 4K/8K Monitore haben wir aber nischt in Sicht was das auch nur Ansatzweise befeuern koennte.
 
  • Gefällt mir
Reaktionen: Aeromax
Mal eine Frage zu Eyefinity, ist das noch immer so, dass dort sich ohne Tools ein maximiertes Fenster über alle drei Bildschirme öffnet? Wird die Taskleiste dort mittig dargestellt oder auf dem linken Bildschirm? Habe aktuell eine nVidia und plane mir eventuell nun eine Radeon zuzulegen.
 
Zu erstens ja, werden sie. Daher Power Toys, da kann mittels der Fancy Zones eine entsprechende Einstellung vorgenommen werden. Die Taskleiste von Windows 11 landet auf dem mittleren Monitor, bei Windows 10 landet das Logo aber links.

Wenn Du bewusst für ein Multi-Monitor-Setup planst, würde ich wirklich bei Nvidia bleiben, damit hat man meiner Erfahrung nach weniger Ärger, da die Fenster ordentlich skalieren und keine Extra-Programme gebraucht werden.
 
@Aeromax
Danke fürs Feedback

Habe schon seit Ewigkeiten ein Multi-Monitor-Setup und sowohl mit Radeon Karten und mit Nvidia betrieben. Die Radeon Treiber haben also noch die gleichen Probleme wie vor 10 Jahren in dieser Beziehung, da hat es Nvidia eindeutig besser gemacht. Schade für AMD, weil eigentlich wollte ich jetzt mit einer RX 6800 XT aufrüsten, nun muss ich wohl oder übel im anderen Lager etwas passendes suchen, wobei mir die alle entweder zu teuer sind oder für mich aktuell zu wenig Speicher haben (oder beides). Mist.

Wobei, wenn ich das richtig in Erinnerung habe, mal Eyefinity mal ein Alleinstellungsmerkmal der Radeons war.
 
Zurück
Oben