Verwirrung - Auflösung und Grafikkarten

Registriert
Okt. 2017
Beiträge
38
Hallo,

ich und ein freund von mir geraten grade in eine große verwirrung, wir sind beide offentsichtlich keine fachmänner.

Mein kumpel hat eine gtx 1070 graka und einen monitor mit 2560x1440 (WQHD)

Er sagte, die graka muss halt mehr berechnen, desto höher die Auflösung ist, ich frage mich nun, wieviel mehr muss die Graka berechnen für mehr Auflösung? Braucht die Graka viel kraft dafür? Ich meine, ich weiß nicht wie die Graka den unterschied von 1920x1080 und 2560x1440 berechnet, wieviel konzentration, mhz, kraft... wie auch immer man es nennen will braucht die Graka, um eine höhere auflösung zu berechnen?

Er hat seine gtx 1070 auf 2100 mhz hochgetaktet, er meinte dass eine höhere auflösung mehr Anspruch erfordert, ich denke er hat seine graka zu hoch getaktet und frage mich halt, wieviel wohl seine WQHD auflösung beansprucht...

eine normale 1070 hat um die 1500 basis takt und 1700 boosttakt (zahlen gerundet)

Wir chatten grade seit 1 stunde darüber, keiner versteht den andern so richtig lol, hoffe ihr könnt uns weiterhelfen!


Grüße
 
1920x1080 -> 2560x1440 2x mal soviel
1920x1080 -> 4K 4x mal soviel
 
Und was willst Du da hören? Da gibt es keine generelle Antwort. FullHD hat gut 2 Mil Pixel. WQHD hat 3.6 Mil Pixel. Also braucht die GPU ca. 75% mehr Leistung, für die gleichen FPS. Aber das ist nur Theorie. Es liegt da noch an vielen anderen Faktoren. Das Spiel selbst, die Engine des Spiels. Natürlich die Einstellungen in Game usw.

Aber all das kann man selbst leicht heraus finden. Afterburner installieren und die Auslastung bei verschiedenen Auflösungen prüfen.
 
die GPU muss genau 56,25% 77% mehr Pixel berechnen, zu FHD

da die GPU jeden Pixel einzeln berechnen muss wird auch die menge an Leistung für gleich viel FPS benötigt.
 
Zuletzt bearbeitet:
Hallo,

natürlich muss die Graka mehr ackern je höher die Auflösung wird. Bei FullHD sind etwas über 2 Millionen Bildpunkte zu berechnen, bei WQHD hingegen schon rund 3,7 Millionen Bildpunkte.

Warum sollte die 1070 zu hoch getaktet sein, 2100 MHz sind nichts Besonderes. :)
 
höhere auflösung -> mehr zu berechnende pixel. allerdings hat man deshalb z.b. in UHD nicht automatisch nur 25% der fps die man bei gleichen settings in FHD hat.

warum meinst du dass dein freund seine graka zu stark übertaktet hätte?
 
Zuletzt bearbeitet:
Ein beispiel, man spiel Counterstrike mit höchsten grafikeinstellungen auf full HD 1920x1080, wieviel kraft benötigt die grafikkarte um das zu berechnen?

Nun die selbe frage an WQHD, anscheinend über 75%, okay.. aber von wieviel mhz reden wir hier, weil anscheinend net alle grakas eine WQHD abspielen können, das heißt ja wohl, dass eine WQHD sehr viel kraft in anspruch nimmt.
 
Das kann man nicht nur in MHz fest machen. Der Takt ist nur eine Variable in der Gleichung.

Und ja, WQHD ist schon eine Ecke Anspruchsvoller.
Wenn du eine relativ aktuelle Nvidia oder AMD Graka hast, kannst du ja mal DSR bzw. VSR anmachen und den Unterscheid testen.
 
Schau Dir die Auslastung der Graka an, dann siehst Du wie viel "Kraft" sie braucht^^
In CS:GO wird sie sich wahrscheinlich langweilen, weil das Game CPU-Limitiert läuft.
Und ihr könnt doch (an ein und der selben Graka und deren Auslastung) in verschiedenen Auflösungen sehen, was sie an "Kraft" dafür braucht. Da eignet sich CS:GO gut für, weil es die Graka nicht voll auslastet.

Und FHD zu UHD sind zwar 4x so viel Pixel, die zu berechnen sind, aber die Graka wird dadurch nur etwas mehr als die Hälfte langsamer.
Das Pixel und Leistung proportional zueinander sind, das stimmt nicht. Denn viel "Vorarbeit" (z.b. das Geometrie-Setup) ist völlig unabhängig von der Auflösung und dauert immer die gleiche Zeit, egal ob 640x480 oder 6400x4800
 
Zuletzt bearbeitet:
@ TE:
die graka benötigt so viel power wie sie eben braucht um in game x bei settings y z fps darzustellen. in einer höheren auflösung braucht sie mehr power. es gibt keine absolute antwort auf deine frage (sofern ich die denn überhaupt richtig verstanden habe:freak:).

"aber von wieviel mhz reden wir hier" -> hä?

nahezu jede graka kann ein bild in WQHD ausgeben.
 
Kraft ist Masse mal Beschleunigung, also hoffentlich braucht deine Grafikkarte keine Kraft dafür :D

Leistung (nicht die physikalische!) triffts da eher.
Du kannst die Leistung auch nicht direkt am takt der Karte fest machen. Das hängt noch vom Chip und dessen Architektur und dem Speicher und sonst noch was alles ab.
Ist aber prinzipielle auch egal, schau dir Benchmarks der Karten an, dann hast du einen Vergleich.
 
Jo, deshalb sage ich auch gernme ''kraft'' dazu, weil einfach nur mhz zu sagen kommt mir auch net richtig vor.
 
"Kraft" ist noch weniger richtig. "Leistung" trifft es. Genauer Rechenleistung. Irgendwo in der Karte gibts natürlich auch "Kraft" (ganz tief drinnen, Kraft zwischen den Elektronen und so weiter. Leistung gibts auch und zwar in Form von "elektrischer Leistung", aber du suchst hier nach dem Wort "Rechenleistung")

https://de.wikipedia.org/wiki/Rechenleistung
 
für 2560x1440 braucht man keine 2,1ghz. selbst für 4k braucht man diese nicht(je nach game). was dir graka braucht nimmt sie sich, du merkst das dann nur an der fps ob die graka dafür reicht oder nicht. kommt natürlich auch aufs spiel an. z.b. wow oder wows auf 4k da reicht der normale takt+boost takt locker. ich hab z.b. dabei noch nen framelimiter laufen da mein moni eh nur 60hz ausgibt^^
 
Eure Diskussion ist schon von vornherein von Unwissen geprägt. Eine GPU kann eine gewisse Rohleistung erbringen, basierend auf Takt der einzelnen Domänen, Speichergeschwindigkeit, Anzahl der Shader, Anzahl der anderen Recheneinheiten und zur Verfügung stehendem Strom und Kühlung. Dieser Wert ist aber nicht greifbar, er ist fiktiv, weil er niemals in 2 aufeinanderfolgenden Sekunden gleich ist. Auch gibt es keine Einheit dafür.

CS:GO ist nun ein Spiel, was je nach Szene, also Auflösung, Details, Karte, Mitspieler, Hintergrundanwendungen, CPU-Leistung Spieleraktionen und Spielverlauf unterschiedlich viel Leistung benötigt. Auch dieser Wert verändert sich ständig und ist nicht greifbar.

Deshalb wird ja gebenchmarkt. Du nimmst Spiel XYZ mit Wunscheinstellungen und lässt diese Einstellungen auf deinem System laufen. Und dann entscheidest du: Läuft es dir schnell genug? Falls ja -> Dein System leistet genug. Falls nein -> Dein System leistet nicht genug. Also entweder die Systemleistung erhöhen (Neukauf, Übertakten) oder die Anforderungen (Einstellungen) reduzieren.

Pauschal sind FullHD 2M Pixel, QHD 3,7M Pixel, also grob doppelt so viele. Da aber je nach Spiel nur etwa ein Viertel bis dreiviertel der Rechenleistung pro Pixel stattfindet, der Rest auf anderen Strukturen wie der Geometrie, kannst du grob sagen, du brauchst für QHD etwa 35% mehr Leistung als für FullHD. Grob! Dieser Wert ist durch einige Rundungen gelaufen und unterscheidet sich je nach Spiel und Situation extrem von der Realität und ist auch wieder von Sekunde zu Sekunde verschieden.

Wie löst ihr eure Diskussion? Benchmarken! Wunscheinstellungen wählen, beobachten. Läuft es schnell genug? Ja -> Leistung reicht. Nein -> Leistung reicht nicht.

Und tatsächlich ist die Lösung eines derart komplizierten Problems wirklich genau so einfach. Hingucken, erkennen. Und NIEMALS versuchen, das in Zahlen zu greifen. Denn in der Zeit, in der ihr eine einzige Zahl aufschreiben könnt, haben sich die Parameter schon alle mehrmals geändert.
 
Ums kurz zu machen:

in aktuellen Games (AAA Titel wie Witcher 3, AC Origins etc.) sollte man für hohe Grafikeinstellungen ungefähr folgende Rechenleistung bei der GraKa haben:

FullHD GTX 1060/70, RX480/570/580 Vega RX56
WQHD GTX 1070/80, Vega RX56/64
UHD GTX 1080 Ti

wobei das auf die gewünschte FPS-Zahl ankommt. Wenn du (normaler Monitor 60Hz) 60FPS haben willst, reicht das kleinere aufgeführte Modell, bei höherer erwünschter FPS (Monitore mit 75-144Hz) das größere Modell
 
Kraft braucht eine Grafikkarte an anderer Stelle, es müssen ja die einzelnen Pixel möglichst schnell durch das Anschlusskabel zum Monitor gepresst werden.
Die feine Litze in den Kabeln haben einzeln ja einen extrem kleinen Querschnitt - und sind damit vordergründig für kleine Pixel bei hohen Auflösungen geeignet - in Summe aber auch für grobe Einstellungen wie FHD (1920x1080) als auch HD (1280x720) durchaus verwendbar.
Deshalb waren früher auch die Kabel und Anschlüsse dicker!

PS:
DAS IST NICHT nicht ERNST GEMEINT :evillol:
 
Zuletzt bearbeitet: (VERDEUTLICHUNG)
  • Gefällt mir
Reaktionen: Deathangel008
Sasi Black schrieb:
die GPU muss genau 56,25% mehr Pixel berechnen, zu FHD

Da ich das nicht so stehen lassen möchte:
FHD sind 56,25% der Pixel von WQHD,
WQHD hat damit 77,7...% MEHR Pixel als FHD.
 
Zurück
Oben