4K mit einer Geforce 5080 sinnvoll?

@Verak Drezzt Ja das ist halt in dieser Hinsicht auch eine Sorge die ich habe.

Aber liegt es nicht auch zumindest teilweise an den schlechten Optimierungen der Entwickler, dass manche Spiele auf 4K mit relativ wenig FPS laufen? Und könnte es da nicht in naher Zukunft Lösungen für geben? Ich hatte ja z.B. schon das rtx neural texture compression feature von nVidia erwähnt woran sie schon arbeiten sollen. Allerdings ist halt auch nicht klar, ob das dann ein Feature sein wird, was erst mit zukünftigen Karten exklusiv erfolgen wird oder ob es etwas sein wird, was für alle Generationen zugänglich sein wird.

4K hat halt aber auch außerhalb vom Gaming Vorteile. Zum Beispiel werden Texte schärfer dargestellt. Und ich lese halt auch viel am Tag. An sich wäre ich schon bereit den Sprung auf 4K zu wagen, aber dann vermutlich erst mal kein OLED. Denn für 32 Zoll sind die einfach noch zu teuer und wie oben bereits erwähnt nutze ich den Monitor auch noch für andere Sachen außerhalb des Gamings.
 
Zuletzt bearbeitet:
Ginryuu schrieb:
dass manche Spiele auf 4K mit relativ wenig FPS laufen?
ne das ist mitunter einfach der hohen Auflösung geschuldet, wenn in 4K die 5080 bei 60FPS dicht macht, hast du in WQHD immer noch deine knapp 85FPS und das muss dir halt bewusst sein
Ergänzung ()

Ginryuu schrieb:
Zum Beispiel werden Texte schärfer dargestellt.
du hast vor allem mehr Platz, die Auflösung auf dem Desktop müsstest du so oder so skalieren, da du nativ bei 100% wohl kaum noch etwas lesen würdest, hab selbst bei WQHD 125% eingestellt

edit
ah ne sind 100%, aber bei 4K siehsde da net wirklich mehr was
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: BarBaer und Baal Netbeck
Ich nutze einen 27" WQHD QD-OLED mit KVM-Switch und habe über DP meine Gaming PC (2. System) angeschlossen und via USB-C mein Arbeitsnotebook, wenn ich im Home Office arbeite und würde die Aussage OLED nur Gaming und IPS für Hybrid Einsatz Arbeit/Zocken so jetzt nicht sehen. Ich finde bei einem 4-6 Std Home Office Tag den OLED Monitor bei weitem angenehmer als meinen 34" IPS UltraGear von LG. Beim Zocken sind für mich beide super.
 
@JeanLegi Seit wann hast du deinen OLED Monitor denn in Benutzung und wie viele Stunden am Tag nutzt du ihn?

Denn wie bereits erwähnt habe ich zu dem Alienware AW3423DWF bereits mehrere Kommentare auf reddit finden können die Burn-In bestätigt haben und ihn umtauschen lassen mussten. Der Monitor kam im Oktober 2022 raus, ist also gerade mal 2 Jahre und 4 Monate alt und wenn dann schon Leute über Burn-In berichten ist das ziemlich erschreckend. OK, der gehört somit noch zu den älteren Generationen und die neueren Generationen sollen ja etwas besser gegen Burn-In vorbeugen aber so wirklich überzeugt mich das nicht. Da kann das noch so schön aussehen wie es will.
 
kachiri schrieb:
In einem realitätsfernen Extremtest in dem Burn-In regelrecht provoziert wurde.

Hardware/Monitors unboxed hat zwei Tests am Laufen. Einmal diesen im o.g. Video als quasi extremer Qualtest und einen mit sinnvollen, realitätsnahen Einstellungen.
Beides auf jeden Fall sehr interessant und ich beobachte das auch. Genauso wie bspw. die Videos dazu von rtings (Mit TVs und Monitoren) und Wolff Den (Mit der Switch OLED).
 
  • Gefällt mir
Reaktionen: Baal Netbeck und Ginryuu
Ich bleib bei WQHD da kann man dank geringerer Auflösung die Qualität etwas hochstellen.
 
  • Gefällt mir
Reaktionen: Baya und Firefly2023
@D0m1n4t0r So hab ich es auch gemacht, WQHD ist für ne 5080 wohl der Punkt wenn du alles mit höchsten Einstellungen spielen möchtest.
 
  • Gefällt mir
Reaktionen: Firefly2023
Ginryuu schrieb:
@Firefly2023 Ich denke, dass es auch stark drauf ankommt welche Spiele man selber priorisiert.
Jemand, der sehr viele Ego-Shooter oder eSport-Titel spielt der wird vermutlich FPS bevorzugen und das ist auch nachvollziehbar.

Aber jemand, der eher Singleplayer Rollenspiele spielt, der ist da nicht so stark drauf angewiesen und will lieber die Grafik beim Spielen genießen. Und ich gehöre eher zur zweiten Kategorie würde ich sagen. Früher habe ich zwar viel Counter Strike gespielt aber die Zeiten sind vorbei.
Ja, dennoch finde ich den Unterschied zu WQHD und den damit verbundene Leistungsverlust zu hoch, selbst mit einer 4080/5080, auch wenn es eine 4K Karte ist.. Aber ja, Anno1800 und Doom Eternal spiele ich auf 4k.
 
Ich persönlich komme z.B. mit 60FPS überhaupt nicht mehr klar. Kommt auf's Game an, aber ich spiele meist irgendwelche Shooter.
Habe mich an die ~90-100FPS inkl. G-Sync gewöhnt, da fallen "nur" 60FPS definitv negativ auf. Musste halt ausprobieren....
 
  • Gefällt mir
Reaktionen: Oudenstekelig
wieso soll damit 4k nicht sinnvoll sein?
Hab sogar mit einer Radeon VII in 4k gezockt und aktuell mit einer RTX 3090.
Man muss halt etwas an den Grafikeinstellungen rumdrehen
 
Moin :)

Also ich daddel mit einer RX 7900 XT (-10% PL) in 4K und will es nicht mehr missen. Viele Spiele kann ich mit maximalen Details spielen und wenn mal etwas nicht rund läuft, dann etwas an den Settings einstellen und gut.

Ich habe letztens den UWQHD Monitor meines Sohnes geschnappt um einfach mal zu testen wie die Games so laufen, bzw. aussehen.... ganz schnell wieder zurück zum 4K Monitor. :D

Zum Thema VRAM, ich würde mir für den Preis keine 5080 kaufen aufgrund der "nur" 16GB VRAM. Iwann wird auch der knapp werden. Nun haste die Karte aber da und erfreue Dich einfach, funzen werden die Games dennoch.
 
Ginryuu schrieb:
@JeanLegi Seit wann hast du deinen OLED Monitor denn in Benutzung und wie viele Stunden am Tag nutzt du ihn.
Den Monitor habe ich seit letztem Jahr, Mai meine ich, im Einsatz und das täglich zwischen 2-8 Std, davon 1x die Woche HO mit 3-6 Std Arbeitszeit. Am Wochenende läuft der PC auch gelegentlich mal durch und ist nur an und Ich lasse die Care Funktionen laufen und habe konnte bisher keine Burn-in Anzeichen erkennen.

Das war jetzt bis vor 2-3 Wochen die Nutzung bis zum Einsatz eines 2. Systems. Durch den Umbau ist der Monitor jetzt nicht mehr ganz so intensiv in Nutzung, aber immer noch so 2 Std am Abend und während HO 3-6 Std.
 
@wern001 Wieso es nicht sinnvoll sein sollte mit der Karte auf 4K zu zocken?
Nunja, weil ich eben nicht weiß wie weit runter ich mit den Details gehen müsste damit man es noch akzeptabel in 4K spielen kann. Die Meinungen sind hier diesbezüglich ja auch eher gemischt.

Wenn ich z.B. auf Mittel gehen müsste dann wäre mir das schon zu weit runter. Ultra oder Hoch sollte mindestens drin sein damit ein Wechsel auf 4K für mich persönlich Sinn macht. Und auf die Zukunft hin betrachtet scheint das eben doch eher fragwürdig zu sein, dass das z.B. in 5 Jahren noch möglich sein wird.

@Baya Ich weiß nicht. Ich kann mich noch an eine Zeit erinnern wo die grafisch anspruchsvolleren Spiele 30 FPS als Maximum hatten und das war auch mehr als in Ordnung. Klar, das ist jetzt vllt. auch schon wieder rund 15 Jahre her aber da hat es auch erst unter 20 FPS angefangen zu ruckeln. Alles darüber war total in Ordnung.

Kann man natürlich nicht mehr so richtig mit Heute vergleichen weil es ja viel mehr Features gibt die es früher eben nicht gegeben hat aber ich wollte damit auch eher sagen, dass der Unterschied zwischen 60 und 90 oder 100 FPS kaum spürbar ist, weil beides flüssig ist.

@Firefly2023 Der Leistungsverlust ist ziemlich groß, da gebe ich dir vollkommen Recht. Ich werde wohl doch nochmal in ein Geschäft müssen um das direkt miteinander vergleichen zu können wie stark der Unterschied zwischen WQHD und 4K ist.


@Zergasth Die 5080 habe ich mir auch nicht wegen dem VRAM geholt sondern weil ursprünglich eine 4070 Super geplant gewesen ist die dann aber gegen Ende letzten Jahres aufgrund von Verfügbarkeitsproblemen immer teurer geworden ist. Als die 50er Serie dann rauskam hab ich mein Glück probiert und bei Asus eine am Tag des Release bekommen können. Beschweren will ich mich keineswegs über die Karte. Gerade ausgehend davon, dass ich zuvor nur die iGPU meiner CPU benutzt habe und viele Sachen gar nicht spielen konnte. Davor habe ich jahrelang nur eine GTX 970 gehabt. Ist halt trotzdem schade, dass nVidia selbst bei den High-End-Karten so mit dem VRAM geizt...


@JeanLegi Alles klar danke für die Info.
Bei mir wäre die tägliche Nutzungsdauer doch um einiges höher und somit auch das Risiko höher, schneller einen Burn-In zu erhalten. An sich zwar schade aber ich lese halt auch neben dem Text Fringing vermehrt Kritik im Bezug auf die Helligkeit bei OLED's weil die Helligkeit bei HDR wohl auch eine Verarsche sein soll.


@Tornavida Deine Frage in Bezug auf 1440p und 2160p verstehe ich leider nicht.
Kannst du erläutern, wie du das meinst? Ich habe ja jetzt über Nacht keine Möglichkeit gehabt, unterschiedliche Bildschirme zu Testen und weiß daher nicht wie du das sonst meinen könntest.

Oder meinst du das Umstellen von 1440p auf 4K im nVidia Control Panel? Weil das hatte ich auf Seite 1 ja reineditiert, dass ich keine wirkliche Veränderung bemerkt habe. Lediglich die Maus hat sich etwas langsamer angefühlt.
 
Zuletzt bearbeitet:
@TE

Und wie fandest du nun den Unterschied zwischen 1440p und 2160p bei dieser Monitorgrösse ?

Ich persönlich würde bis 32 noch bei 1440p bleiben weil mir das oft gut genug aussieht (je nach Game kann man ja auch noch hochskalieren für den inneren Frieden) und mir die Schrift sonst auch bei 4k zu klein wäre. Eine 5080 sehe ich für 34er optimal, für 1440p im normalen Format würde eigentlich ja auch eine 4070tis/5070ti locker reichen, wobei natürlich jeder eigene Vorstellungen von optimal und ausreichend hat, deshalb spreche ich nur für mich .4k nutze ich selber auf einem 42er Oled, da machts auch für mich Sinn bei der Grösse und dem relativ kleinen Abstand um 1m. Denke in 4k käme ich mit einer 5080 insbesondere in meinen favorisierten Games gut zurecht.
 
  • Gefällt mir
Reaktionen: BarBaer
Also ich spiele aktuell auf einer 4060 (8gb vram) in 4k.

Weil ich mein Rechner mit 4090 etwas voreilig verkauft habe (selbst schuld!).

Habe ich kurzerhand ein "Notrechner" mit 4060 und core ultra 7 265k zusammen geschustert.

Da ich aber nur 4x 4k Monitore habe, wird aktuell auch auf der 4060 in 4k gezockt.

Und das geht tatsächlich deutlich besser, als ich vermutet hätte!

Zb. Spider mab 2 hohe settings (natürlich ohne raytracing) mit dlss (quality) gibts immer noch gut spielbare 60fps. Und es läuft auch flüssig, absolut spielbar!

Und ältere Spiele, welche kein dlss können, sind eeh kein problem! Da ältere spiele in aller regel schon allgemein weniger anspruchsvoll an die Hardware sind.

Hauptproblem der 4060, ist aber tatsächlich der geringe vram von 8GB...
Der ist quasi immer am limit.
Aber trotzdem lässt es sich gut damit zocken!

Und das sage ich als einer der 2 jahre labg eine 4090 hatte!

Klar die 4090 war besser (vorallem mit raytracing)... aber dafür dass die 4090 auch 10x so viel gekostet hat, ist das "Spielerlebnis" nicht 10x besser!

Und wenn ich mit ner 4060 in 4k zocken kann, dann kann man es auch mit ner 5080!

Wie andere bereits sagten, man muss nur einige Regler bedienen können.
 
  • Gefällt mir
Reaktionen: Nitrobong, retrozerky, RedPanda05 und 2 andere
@Ginryuu warum bist du eigentlich so versessen auf mindestens hohe Einstellungen? Wenn in 3 Jahren Games rauskommen, bei denen medium so aussieht wie hoch heute, wo ist das Problem der mittleren Einstellungen?
 
Zergasth schrieb:
Zum Thema VRAM, ich würde mir für den Preis keine 5080 kaufen aufgrund der "nur" 16GB VRAM.
Was für ein Quatsch. GDDR7 kann man doch überhaupt nicht mit GDDR6 vergleichen. Schon allein die Bandbreite ist 33% höher und die parallelen Taktzyklen wurden auch deutlich erhöht. Das heißt "in einfacher Sprache", dass 16GB DDR7 im Prinzip mindestens gleichwertig mit +30% (20GB) GDDR6 sind da die Daten mit deutlich "höherer" (weil parallel und durch eine 33% "größere" Leitung) Geschwindigkeit in den VRAM rein und auch wieder rauskommen als bei GDDR6.

Hier Mal was zum Lesen, damit ihr nicht dumm sterbt oder eure Unwissenheit weiter im Netz verbreitet:
https://www.corsair.com/de/de/explorer/diy-builder/memory/gddr7-vs-gddr6-whats-the-difference/
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: KEV24in_Janßen
@RedPanda05 Ist eigentlich relativ einfach erklärt... Wenn man schon eine so teure Karte hat dann will man sie doch auch so gut es geht ausreizen. Du kaufst dir doch auch kein Cabrio um dann nie das Dach aufzumachen. ;-)
 
@Firefly2023 Ehm...?
Das Problem ist, dass ich nicht weiß wie lange ich 4K mit hohen Einstellungen oder sogar Ultra Einstellungen nutzen kann. Ich möchte mir wie im Eingangspost zu lesen ist bald einen neuen Monitor kaufen und dahingehend wäre es wichtig abzuklären ob es ein 4K Monitor wird oder eben ein 1440p Monitor. Denn es wäre ja komisch wenn ich jetzt auf 1440p gehe und am Ende hätte ich dann doch von jemandem die Gewissheit bekommen, dass ich über Jahre hinweg 4K ohne Probleme hätte spielen können ohne mit den Einstellungen groß runtergehen zu müssen.
 
  • Gefällt mir
Reaktionen: Loopman
Zurück
Oben