4K mit einer Geforce 5080 sinnvoll?

Odessit schrieb:
um die bei dieser Nutzung gegebenen Einbrenngefahr auszuschließen
Wayne. Moderne OLEDs und aktive Mechanismen zur Burnin Vermeidung reicht.

Hier gibt's Threads mit Userberichten dazu. Da stehen 3+ Jahre alte OLED TVs mit täglicher Office Nutzung ohne irgendwelchen Burnin.
 
<---- wollte schon immer "mehr" haben.
Ich hab meinen ersten "WQHD"-Monitor 2007 gekauft (2560x1600) und dann drei davon nebeneinander betrieben (7680x1600). UHD hab ich mir dann angeschafft, als es (für mich) bezahlbar wurde. Also irgendwann vor 10 Jahren. Ich meine ... schaut euch die Leistung einer Graka von vor 10 Jahren an, und wie übel die Geschosse von heute sind.

Ich sag da immer:


Zu viele Gedanken.
 
  • Gefällt mir
Reaktionen: Odessit
4K ganz klar.

DLSS Performance Modus, erstrecht mit dem neuen DLSS4 Transformer model sieht SEHR viel besser aus, als selbst 1440p Nativ oder 1440p mit DLSS Quality und liegt performancemäßig zwischen den beiden. Die performancekosten, um den Sprung auf ein 4K Display zu machen sind also sehr gering.

Ich nutze aber auch wann immer es geht zusätzlich Frame Generation auf meiner 4080.

In pathtraced Spielen reicht das meistens für im Schnitt ca 80-90 FPS (mit der 5080 dann eher 160 FPS mit MFG) und für Spiele mit normalen RT oder reine Rasterized Spiele sieht man auf der Karte auch sehr häufig 120-150 FPS. Die 5080 schafft da dank MFG auch locker 200-240 FPS.


Also wenn du FG absolut nicht nutzen willst und sehr hohe FPS willst, dann führt an einer 5090 soweiso nichts vorbei. Falls du aber Upscaling und FG nutzen willst, dann wirst du auch mit ner 5080 sehr gut auskommen.

1440p ist für diese Karten eine Verschwendung. Wirklich.

1440p würde ich maximal mit den 12 GB nvidia Karten nutzen. Aber mit den 16 GB karten bzw. 4070ti Super oder besser auf jeden Fall 4K.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: RedPanda05
Mimir schrieb:
4K ganz klar.

DLSS Performance Modus, erstrecht mit dem neuen DLSS4 Transformer model sieht SEHR viel besser aus, als selbst 1440p Nativ oder 1440p mit DLSS Quality und liegt performancemäßig zwischen den beiden. Die performancekosten, um den Sprung auf ein 4K Display zu machen sind also sehr gering.

Kann ich voll bestätigen.

DLSS ist mittlerweile so gut, das oft 4K im Performance Mode (intern 1080p) für ein knackiges Bild reicht.

Unter 4k würde ich 2025 nicht mehr gehen.
 
@Firefly2023 qhd ist veraltet, im Desktop. Ich erinnere mich noch an das Praktikum in einer Verwaltung um 2015 herum, die damals qhd Monitore verteilt haben. Mittlerweile bekommt man 4K Monitore unter 200€ und 120Hz & 4K für gut 300€. Warum sollte man sich sowas noch kaufen, wenn der Rest des Setups high end ist (außer vielleicht du bist tenz und verdienst mit deinen 400hz Monitoren ein Vermögen)?

Anmerkung: Für Budget Setups ist Qhd natürlich ok, aber wenn ich 1500€ in meine GPU brettere und ich mir jetzt überlege einen Monitor zu kaufen, sollte das dementsprechend auch 4K sein.
 
Zuletzt bearbeitet:
AwesomSTUFF schrieb:
Was für ein Quatsch.
Ähm... Das muss ich an dich zurück geben.

Die Bandbreite und die Menge sind zwei verschiedene Dinge!

33% mehr Bandbreite hilft manchmal der GPU, schneller an ihre Daten zu kommen....wenn diese in den 16GB VRam liegen.

Aber es entspricht nicht 20GB GDDR6!

Denn wenn 16GB nicht reichen, dann werden die Daten in den System Ram ausgelagert und man bekommt unabhängig von der VRAM Bandbreite Probleme, da der RAM nur einen Bruchteil der Bandbreite des VRAMs hat...so ca. 40-90 GB/s Peak bei DDR5 im Vergleich zu 960GB/s bei der 5080.
Und die Latenz ist massiv schlechter.

Und je nach PCIe Verbindung limitiert diese noch weiter...
 
Bezüglich HDR kann ich mich nicht beschweren, ich kann zwischen True Black 400 und 1000 Nits wählen und komm mit beidem super klar, bin aber eher mit True Black 400 unterwegs und muss sagen, gefällt mir besser als HDR mit meinem 34" LG Monitor. Es ist nicht so krass hell für mein empfinden.
 
Baal Netbeck schrieb:
Die Bandbreite und die Menge sind zwei verschiedene Dinge!
Absolut. Allerdings ist eine Grafikkarte ja kein Dead End sondern eher ein Durchlauf. Natürlich bekommt man Probleme eine 20GB Textur in einen 16GB VRAM zu schieben. Allerdings gibt es dieses Usecase in der Praxis so ja nicht. Es liegen ja nicht nur Texturen da drinnen. Was also schneller durchgeht, muss nicht irgendwo (im VRAM) rumliegen und auf den nächsten Schwung Daten warten. Das zusammen mit den Feature Optimierungen zur generellen VRAM Nutzung macht definitiv einen Unterschied in nicht vernachlässigbarer Größe.

Feel free to prove me wrong 🤷🏻‍♂️
 
Erstens habe ich nie von einer 20GB Textur gesprochen. Das ist ein Strohman-Argument!
AwesomSTUFF schrieb:
Feel free to prove me wrong 🤷🏻‍♂️
Logisches Denken anwenden!

Niemand außer dir vertritt die Meinung, man könne fehlenden VRAM, durch schnellerem VRAM ersetzen.
Wäre das der Fall, würde sich Nvidia dafür feiern, dass die jetzt mehr Bandbreite haben.
So ein Zusammenhang wäre weithin bekannt.

EIne Grafikkarte ist zwar ein Durchlauf für Frames, aber nicht für die Daten zur Berechnung der Frames. Denn die unterscheiden sich von Frame zu Frame selten nennenswert(nur bei Kamerasprüngen).

AwesomSTUFF schrieb:
Was also schneller durchgeht, muss nicht irgendwo (im VRAM) rumliegen und auf den nächsten Schwung Daten warten.
Schwer zu sagen, was du uns hier sagen möchtest, aber die Daten werden ja nicht für jeden Frame neu in die Grafikkarte geschoben.
Das wäre rechnerisch gar nicht möglich...16GB VRAM über die PCIe 5.0 Verbindung zu füllen würde mit ihren 64GB/s für das Füllen des VRAM 1/4 Sekunde brauchen....mit anderen Worten, du hättest maximal 4 FPS wenn der ganze VRAM gefüllt wird.

Es ist so ein großer Schwachsinn, dass ich für dich hoffe, dass du einfach trollst.
 
  • Gefällt mir
Reaktionen: Ginryuu
Vielen Dank für eure ganzen Rückmeldungen und Erfahrungen.
Da waren einige sehr hilfreiche Argumente dabei und ein paar Dinge konnte ich auch lernen.

Ich werde dann wohl den Schritt auf 4K wagen. Aber dann erst mal ohne OLED weil das dann doch noch ganz schön teuer ist, zumindest bei 32 Zoll und größer. 27 Zoll gibts ja teilweise schon für relativ kleines Geld, aber dann eben auch "nur" in WQHD.

Auf die Idee mit dem Monitorarm von @Odessit bin ich gar nicht gekommen. Könnte sich dann aber realisieren lassen falls ich dann später doch mal auf OLED umsteigen wollen würde.

Meine Bedenken wegen dem nicht lange ausreichendem VRAM wurden mir auch genommen, wegen diesem Beitrag hier: https://www.corsair.com/de/de/explorer/diy-builder/memory/gddr7-vs-gddr6-whats-the-difference/

Die 16 GB der 5080 agieren dank des GDDR7 Speichers wohl in Richtung von 20-24 GB VRAM der 40er Serie (ungefähr) und das beruhigt mich dann schon genug.
 
Ginryuu schrieb:
Die 16 GB der 5080 agieren dank des GDDR7 Speichers wohl in Richtung von 20-24 GB VRAM der 40er Serie (ungefähr) und das beruhigt mich dann schon genug.
Nö. Geschwindigkeit kann Kapazität nicht ersetzen. Denn der Flaschenhals ist da immer noch die Kette SSD -> CPU -> RAM -> PCIE. Manches davon geht direkt, aber alles davon ist eine Größenordnung langsamer als der onboard VRAM. Wenn die Assets nicht in den Vram passen und nachgeladen werden müssen, dauert der Transfer weit länger als jede normale Frametime.

Aaaaber, 16GB ist auch in 4K meistens noch genug. Im Zweifelsfall musste halt in 1-2 Jahren schon Texturen oder Effekte reduzieren, damit es nicht hakt. Ist halt Nvidias Vram-Geiz abseits der Flaggschiffe :P
 
  • Gefällt mir
Reaktionen: Verak Drezzt, Baal Netbeck, Ginryuu und eine weitere Person
Ginryuu schrieb:
Meine Bedenken wegen dem nicht lange ausreichendem VRAM wurden mir auch genommen, wegen diesem Beitrag hier: https://www.corsair.com/de/de/explorer/diy-builder/memory/gddr7-vs-gddr6-whats-the-difference/

Die 16 GB der 5080 agieren dank des GDDR7 Speichers wohl in Richtung von 20-24 GB VRAM der 40er Serie (ungefähr) und das beruhigt mich dann schon genug.
Hast du den Artikel selbst gelesen oder nur die Lüge von @AwesomSTUFF geglaubt?

Denn davon steht nichts in dem Artikel.

Ist so ein typischer Fall, wo jemand seinen Unsinn mit einer Quelle (vermeintlich) belegt und hofft, dass niemand die Quelle anguckt.
Ergänzung ()

Powl_0 schrieb:
16GB ist auch in 4K meistens noch genug.
Genau so würde ich es auch formulieren.
 
@Baal Netbeck Ich habe den Artikel selber gelesen.

Es mag nicht im Artikel selbst stehen, aber die Aussagen stammen von Leuten aus reddit, siehe hier: https://www.reddit.com/r/buildapc/comments/1i6n6em/gddr7_vs_gddr6x_in_a_context_of_a_gpu/

Oder hier: https://www.reddit.com/r/pcmasterrace/comments/1hvl7en/how_does_gddr7_differ_from_gddr6x/
Und ja ich sehe, dass es da Leute gibt die schreiben, dass der Quervergleich hinkt. Wollte jetzt nur zeigen woher ich das aufgegriffen habe.
Da war noch ein anderer Beitrag auf reddit wo das jemand explizit so erwähnt hat, dass die GDDR7 der 5080 gleichzusetzen sind mit 20-24 GB VRAM aus der 40er Serie aber den finde ich jetzt auf die Schnelle nicht.
 
  • Gefällt mir
Reaktionen: AwesomSTUFF
Ginryuu schrieb:
dass die GDDR7 der 5080 gleichzusetzen sind mit 20-24 GB VRAM aus der 40er Serie
das ist Quatsch, denn die Texturen werden vom Speicher nicht komprimiert und sind mit älteren Speicher genauso groß wie mit aktuellen GDDR7, unterscheidet sich einzig und allein im Datendurchsatz und damit in der Geschwindigkeit, aber 16GB VRam sind 16GB VRam egal ob GDDR7 oder GDDR6/X
 
  • Gefällt mir
Reaktionen: Baal Netbeck und Ginryuu
Kein Kommentar in deinen zwei Links macht diese Aussage.

Vereinfacht: Auf den Parkplatz passen nicht mehr Autos, nur weil die Zufahrtsstraße verbreitert wird ;)
 
  • Gefällt mir
Reaktionen: Baal Netbeck, Ginryuu und Verak Drezzt
kachiri schrieb:
Wie kannst du mit einer 12 GB Karte in 4k spielen. UMG.
Mache ich auch seit Jahren ohne Probleme...
 
  • Gefällt mir
Reaktionen: AwesomSTUFF
@PaladinX Das war ironisch gemeint.

Regler sind da, um bedient zu werden.
 
Die Ironie hab ich nich erkannt. Hier sind manche ja wirklich so drauf. :)
 
Baal Netbeck schrieb:
Logisches Denken anwenden!
Schon allein dass Du es offenbar nötig hast für mich Deine Argumentation "dumm" zu machen zeigt ja wie "kultiviert" Deine Diskussionskultur ist. Dein Problem.

Einen wirklichen Gegenbeweis hast Du abgesehen von Deiner "Milchmädchenrechnung" ja nun auch nicht gerade gebracht. Für Deine "richtige" Theorie gibt es also genauso viele belastbare Beweise wie für meine "Falsche".

Edit: Ich hab den Link lediglich gebracht um etwas Kontext rein zu bringen. Ob Du Fakten nun ignorierst oder nicht is mir doch egal.

Verak Drezzt schrieb:
Texturen werden vom Speicher nicht komprimiert
Texturen sind aber nur ein Teil dessen, was dort gespeichert wird. Meshes, Farmebuffer, Shader usw. die eben nicht "statisch" sind. Animationen und Objekttransformationen werden von der CPU für jeden Frame erneuert und an dann an die Grafikkarte gesendet und auch idR im RAM dupliziert abgelegt.
 
Zuletzt bearbeitet:
Zurück
Oben