4k Gaming Allgemeine Frage!

Ketamaa

Lt. Junior Grade
Registriert
Juli 2009
Beiträge
267
Hallo!

Ein Arbeitskollege von mir plant sich einen neuen pc zu kaufen!
Er möchte sich das beste vom besten kaufen.. 9900k plus einen 2080 ti
Er spielt eigentlich alles... er spielt gerne aaa Spiele.. sprich Grafik Kracher
Tomb Raider Metro.. bf5 the devision.. anno usw..

ich habe ihn geraten sich nicht einen 4k Monitor zu kaufen, ein anderer Arbeitskollege war
der anderen Meinung!

Ich habe zwar keinen 9900k dafür eine 2080 ti! ich spiele in UWQHD! Ich glaube es müste 2.7k
ca sein... also für 4k braucht man mehr als das doppelte an Leistung.. Bitte bessert mich aus falsch ich
falsch liege!

Und jetzt ist mein Problem da... ich habe für mich meiner Meinung nach denn perfekten Prozessor! 1950x...
ich habe bis jetzt noch kein Spiel (starcraft 2) ausgenommen ...wo mich mein Prozessor bei meiner
Auflösung limitiert!

Doch bei ein paar spielen ...bf5 (manche Karten), assasins creed... Anthem.. tom Clanys ghost recon Wildlands usw.
erreiche ich nicht mal 100 fps durschnitt!

Welchen sinn hat es dann auf 4k zu spielen...das braucht ja mehr als die doppelte Leistung!
Noch dazu ein 4k Monitor mit 100 herz kostet 2000+ Und 100 herz erreicht man in neuen spielen nie...
Und meiner Meinung nach wird die 2080 ti erst in frühestens einen Jahr abgelöst! Ich meine durch eine neue ti...

Ich bin natürlich ein Fan von meiner 3440x1440 Auflösung! ich kenne seit 2 Jahren nichts anderes... er möchte sich eben lieber einen 27
zoll monitor kaufen! Ich rate ihm zu wqhd! Weil meiner Meinung nach eben eine 2080 ti zu schwach ist für 4k!
Der andere Arbeitskollege sagt nein 4k.. er muß ja nicht alles auf ultra oder extrem spielen!

Jetzt ist meine frage.. wie seht ihr das?
Ist 4k in aaa spielen schöner wenn man es auf high spielt...
Oder lieber 2k und (160 herz) und Ultra!
 
1. Dass dein Prozessor vermeintlich nicht limitiert, ist vermutlich falsch, und begründet durch eine falsche Interpretation des Task-Mangers. Siehe meine Signatur für Details.

2. 4k heißt nicht 4 fache Arbeit von FullHD oder doppelt wenn man das mit 1440 verechnet oder so. Z.B. brauchst du bei 4k nicht so heftigen Anti-Aliasing und gewisse Grundsachen mussten auch schon vorher berechnet werden. Dass das nicht nur Theorie ist, siehst du z.B. beim Computerbase Artikel zum neuen Spiel Anthem. 2080 (nicht TI) hat auf FullHD 94 FPS und auf 4k 60 FPS. Das ist selbst von FullHD gerechnet deutlich mehr als die Hälfte (also nicht mal von FullHD auf 4K wird "doppelte" Leistung gebraucht). Nach Artikel ist Anthem eines oder das hungrigste Spiel im Moment. In Betrachtung, dass nicht mal die 2080 TI getestet wurde (die signifikant mehr FPS leistet), wird man also mit einer 2080 ti auch auf 4k eine überaus sehr gute Grafik mit guten FPS erreichen können (je nach FPS Bedarf - da gibt es ja Fetischisten - kann die maximale Grafik für mehr FPS gelockert werden, aber immer noch auf 4k).
 
Zuletzt bearbeitet: (Zahlendreher korrigiert)
  • Gefällt mir
Reaktionen: Fujiyama
Vergiss meine cpu!

Ich dachte immer in Full HD testet man die cpu... und in 4k die Gpu! Ich muß gestehen ich hab nur denn test von Anthem überflogen! Mir ist auch klar das man in 4k weniger anit-Aliasing braucht!

Mir gehts mehr ums Subjektive Wahrnehmung ...Es ist schwer zu beschreiben! Ich persöhnlich finde eben 80 fps viel angenehmer als 50 fps... trotz g sync! Ich habe einen g sync Monitor und wenn es hier für mich ruckelt (das passiert für mich.. ich bin da vielleicht empfindlich) bei unter 60fps!
 
Ich denke, wenn man alles vom High end markt einkauft, kann man schon mal einen 4k monitor sich leisten.
Vor allem da ein 4k Monitor eine Investition für die Zukunft ist.
Der PC wird wahrscheinlich früher gewechselt als der Monitor.

Wenn die Leistung dann nicht genügt, bzw. die fps zu gering sind, kann man die interne Auflösung immer noch nach unten schrauben und das Spiel in WQHD rendern.

AMD Ryzen 1xxx Serie, vor allem die Threadripper, sind bekannt, dass sie nicht ideal fürs zocken sind.
Also ja deine CPU kann in einigen Spielen durchaus bremsen. Sollte sich aber im Rahmen halten.

Aber ich empfehle immer das "zweitbeste" zu kaufen. Also lieber den i7-9700k und die RTX 2080, spart man sich 500€. Der Aufpreis wäre es mir nicht wert. Aber ich denke ich bin allgemein zu "geizig" um so viel Geld in ein System zu investieren, dass nach einigen Jahren zum alten Hut gehört.

Und auch ich persönlich würde mir auch noch kein 4k kaufen, da zu teuer und noch zu Leistungshungrig.
Aber wenn Geld keine Rolle spielt, why not.
(wie gesagt, intern kann man jedes Spiel niedriger rendern)
 
Zuletzt bearbeitet:
Was meinst du eigentlich mit 2,7K?

Wir reden hier übrigends von ca 5 Millionen Pixel (UWQHD) vs 8,4 Millionen Pixel (UHD)
 
@alex07

Ja ich weiß was du meinst!

4 k Monitore die es gibt! Ab 144 herz! Doch frag ich mich welchen sinn es mach sich einen Monitor zu kaufen um 1300 euro für die Zunkunft, wenn ich nicht mal heute bei neuen spielen die 140 fps erreiche! Und die anforderungen werden ja nicht weniger!

Natürlich kann ich bei jeden neuen spiel die Auflösung auf wqhd rendern! Doch welchen sinn macht es dann sich einen 4k Monitor zu kaufen? Ich kann ja auch Upscaling machen! Bei älteren Spielen!

Und bitte geht immer von einen 9900k aus....
Ich habe meine cpu gekauft fürs streamen.. und fürs rendern...
Ergänzung ()

@Fujiyama

Sorry bin von 2k auf 4k ausgegangen! das braucht mehr als das doppelte...
Danke!
 
Zuletzt bearbeitet:
Du darfst nicht vergessen das sich auch die hardware weiterentwickelt und nicht nur die Anforderungen.
Wenns nach deiner Logik gehen würde, hätten wir auch heute noch Probleme eine hohe Frameszahl zu erreichen bei FullHD. Und ich kann mich auch noch sehr gut an Zeiten erinnern wo bei FullHD alles abverlangt wurde. Heute ist das absolut kein Problem.
 
 
  • Gefällt mir
Reaktionen: hroessler und shortex
Sinn macht es dann wenn man Geld hat und es dafür gerne ausgeben will. Die Leistung von Grafikkarten entwickelt sich schneller als die Optik von Spielen. Sprich mit der nächsten TI könnten 4k mit entsprechend hohen FPS möglich sein. Wie gesagt Investition in die Zukunft.
Und ich gehe nicht davon aus, dass jedes Spiel mit niedrigeren Auflösung gerendert werden muss. evtl. vll mal die Hälfte der aktuellen AAA Titeln. Und die interne Auflösung wird dann immer noch höher sein als WQHD
Vorteile von 4k
-Zukunftssicherer
-4k bzw. sehr hohe Auflösung in vielen Spielen
-4k im Desktop und in Videos
Nachteile von 4k
-Teuer
-Manche Spiele müssen in Auflösung und/oder Qualität zurück geschraubt werden
(Sprich in der jetzigen Generation noch zu Leistungshungrig)

Wie gesagt mir persönlich wäre das alles viel zu viel Geld.
UWQHD Monitor + RTX 2080 + i7 9700k
Spart man sich ein haufen Geld und sollte von der Qualität in fast nichts nachstehen.

Edit: G-Sync ist bei Nvidia nicht mehr Pflicht. Free Sync ist auch kompatibel. Sollte die Auswahl der Monitore um einiges erhöhen.
 
geschmackssache. ich würde bei 9900k-2080ti auf fullhd mit 240hz setzen
 
Zuletzt bearbeitet:
Ein 4k Monitor lohnt sich, zumindest bei 27 Zoll, gegenüber einem FullHD Monitor auf jeden Fall um Schriften besser lesen zu können. Wie groß die Steigerung von WQHD aus ist, kann ich nicht sagen. Aber ich würde mein 4k definitiv nicht mehr missen wollen, alleine schon eine youtube videos sind einfach zum Staunen so (die schwarz familie auf youtube mal z.B. peru 8k angucken).
 
alex0712 schrieb:
Sinn macht es dann wenn man Geld hat und es dafür gerne ausgeben will. Die Leistung von Grafikkarten entwickelt sich schneller als die Optik von Spielen. Sprich mit der nächsten TI könnten 4k mit entsprechend hohen FPS möglich sein. Wie gesagt Investition in die Zukunft.


Ich finde das leider ehr anders!
ich finde die qualität von Spielen entwickelt sich schneller das die Gpus!
Bei der 980 ti sagte man ja schon das ist die 4k karte bei der 1080 ti 4k Karte... usw.


Das Problem für mich ist... ein paar Leute welche einen 4k Monitor gekauft haben.(aus meinem Freundeskreis).. sind mit der nächsten gpu auf einen whqd Monitor gewechselt! Ich kann mit 4k und nicht 4k nur beim Tv mitreden... Ich bin ein freund von 4k... so ist es nicht! Ich würde dazn sicher 30+ euro im Monat zahlen wenn sie in 4k Fussball übertragen! Ich sehe hier eine verbesserung! Weil die WM in 4k hat mich sehr beeindruckt! Doch einen 4k uhd player würde ich mir z.b. nicht kaufen... in filmen finde ich denn unterschied nicht so spannend! Um so geringer finde ich denn vorteil in spielen!

fps würde ich ab 2k immer 4k vorziehen!

Aber wie gesagt ich finde das nur meine persönliche Meinung! Doch ich finde jede meinung die anders ist immer interessant!
Ergänzung ()

alex0712 schrieb:
Vorteile von 4k
-Zukunftssicherer
-4k bzw. sehr hohe Auflösung in vielen Spielen
-4k im Desktop und in Videos
Nachteile von 4k
-Teuer
-Manche Spiele müssen in Auflösung und/oder Qualität zurück geschraubt werden
(Sprich in der jetzigen Generation noch zu Leistungshungrig)

ich sehe einfach keinen mehrwert in 4k und desktop!
Desweiteren die meisten Videos die ich mir anschau sind entweder Videos von Squishy, oder
videos welche politisch sind.. welche ich nur beim zocken höre und nicht sehe!

Und zukunftssicher das kann keiner sagen! Es gibt ja schon 8k tvs.. und 5k Monitore!
 
Zuletzt bearbeitet:
Ketamaa schrieb:
Sorry bin von 2k auf 4k ausgegangen! das braucht mehr als das doppelte...
Genau genommen ist UHD (38240x2160), so ist die korrekte Bezeichnung, das 4fache von FullHD (1920x1080) in der Fläche, NICHT das doppelte! Und 4k sind 4096x2160, die hat kaum einer.
 
  • Gefällt mir
Reaktionen: SirToast
1550543116385.png
 
Ketamaa schrieb:
Desweiteren die meisten Videos die ich mir anschau sind entweder Videos von Squishy, oder
videos welche politisch sind.. welche ich nur beim zocken höre und nicht sehe!

und dein arbeitskollege hat die gleichen sehgewohnheiten, oder um was geht es dir hier?
 
  • Gefällt mir
Reaktionen: JJJT und alex0712
Wenn man genug Geld hat. Joar hau rein... Wenn du "echte" 4k spielen willst dann hauste dir 2x2080Ti s rein und dann ab dafür. Der Preisverfall bzw insgesamt die entwicklung 4k dürfte wohl noch mehr als deutlich fallen. Ich gehe jetzt von Bildschirm mit aus.
 
Bei 27" würde ich noch auf 1440p setzen und ab 30 Zoll eher 4k, aber da gibt es noch keine Monitore mit 144Hz. Ich kann mir nicht vorstellen, dass der Unterschied auf 27" so groß ist zwischen 1440p und 2160p, aber bei ersterem ist die Grafikkarte wesentlich genügsamer.

Selbst die 2080Ti schafft nicht immer die 60FPS in aktuellen Spielen und das wird dieses Jahr sicher nicht besser werden.

Ansonsten kann man natürlich auch alles mit 4K spielen, wenn man die Regler im Spiel bedienen kann. Das Ganze ist einfach subjektiv zu betrachten und dein Kollege sollte sich so entscheid, dass er selber gut damit klar kommt. Im ersten Moment sieht es eher danach aus: "Ich kaufe mir das teuerste am Markt und bin zufrieden"

Sinnvoll ist das bestimmt nicht.
 
  • Gefällt mir
Reaktionen: fidschi
4k auf 27" empfinde ich als wenig sinnvoll, gerade bei Shootern erreicht man die 100FPS eher selten.
Der wahrnehmbare Unterschied zwischen 1440p und 2160p ist eher gering bei der Größe.
Ansonsten kann ich aus eigener Erfahrung sagen das die 2080Ti auf 4k eine sehr gute Figur macht, wenn nicht gerade 100 FPS+ das Ziel sind.
Was bei mir persönlich für einen echten WOW Effekt gesorgt hat ist HDR mit Full Array Local Dimming.
Bei Videos und Games ein sehr beeindruckendes Feature.
 
  • Gefällt mir
Reaktionen: fidschi und DoS007
Lutscher schrieb:
Was bei mir persönlich für einen echten WOW Effekt gesorgt hat ist HDR mit Full Array Local Dimming.
Bei Videos und Games ein sehr beeindruckendes Feature.

Vielen Dank @Lutscher für diese Information. Es ist doch überraschend, über welche interessante Dinge man hin und wieder beim Lesen hier stößt. Hier ein sehr guter Artikel, der Full Array Local Dimming beschreibt (gerade selbst gelesen).

Was HDR ist, habe ich noch nciht verstanden. Auch gerade noch einmal geguckt. Also mein bisheriges Verständnis ist, dass HDR einfach nur heißt, dass das Bild, was man sieht, starke Kontraste aufweisen kann. HDR ist aber nur eine Beschreibung des Ergebnisses und kein Begriff für eine technische Umsetzung. Ich hätte jetzt gedacht, dass man jetzt einfach nur ein paar Normen raushaut um gemessenermaßen quantifizieren zu können, dass ein Bildwiedergabegerät/TV/Monitor HDR Bronze oder Silber oder Gold unterstützt (ist jetzt von mir ausgedacht). Aber anscheinend ist das nicht so. Stattdessen gibt es nun neue Farbräume für Videocodecs (z.B. HDR10, Dolby Vision), die weitere Farbkanäle zur Verfügung stellen, um gesonders auszuzeichnen, wo etwas dunkel oder hell ist. Und die Übertragungswege der Quelle zum Fernseher (also HDMI z.B.) müssen dieses dann auch unterstützen.

Und das was ich gedacht hätte, was man sinnvollerweise als Bronze oder Silber oder Gold genannt hätte, um das physikalische Wiedergabegerät qualitätsmäßig zu klassifizieren, gibt es anscheinend nicht, sondern man muss sich die Technik anschauen (OLED oder Full Array Local Dimming um HDR umsetzen zu können). Das finde ich schade und komisch.

Und was ich erst recht nicht verstehe: Warum muss man eigentlich das Quellmaterial für HDR anfassen - ist das nicht nur eine Bildschirmsache? Alleine mit drei Werte für rot, grün, blau kann man doch schon super sehr dunkles und sehr helles angeben. Verstehe nicht, wofür man da noch HDR10 braucht?

Habe ich das richtig verstanden? Kann jemand von euch beantworten, wofür HDR10 überhaupt nötig ist und warum das bisherige Quellmaterial nicht ausreicht?
 
DoS007 schrieb:
Warum muss man eigentlich das Quellmaterial für HDR anfassen - ist das nicht nur eine Bildschirmsache?
Aehm, nein. Das muss ja im Bildmaterial drin sein. Hoeherer Range in einem groesseren Farbraum (dank 10 Bit Panel) - das sind deutlich mehr Daten
 
Zurück
Oben