Ich möchte hier gerade mal kurz eine Idee, vorstellen und brauche ein paar "Rechner" die das evtl. bestätigen können, bzw. die es wiederlegen würden.
So, ich versuche mal die die Belastung einer Grafikkarte darzulegen von einem Wechsel eines 5:4 CRT Monitors zu einem 22'' Widescreen TFT. Natürlich wäre die Rechnung, wenn sie richtig ist überall anzuwenden. Ich gehe hier nur von einem Auflösungswechsel aus, keine Qualitätsänderungen (eines Games)!
Zuerst rechnen wir mal die Pixel aus die wir pro Auflösung haben:
Bsp (jedenfalls mein gängige Spieleauflösung)
1280*1024 = 1 310 720 Pixel
(ausgewählte) WS Formate:
1680*1050 = 1 764 000 Pixel
1440* 900 = 1 296 000 Pixel (nicht berücksichtigt in der Rechnung)
So nun nimmt man eine durchschnittliche fps Zahl in einem Game. Beispielsweise nehme ich jetzt Stalker und sage mal 30fps, dürfte hinkommen [aufs ganze Spiel gesehen]. Zahl kann man natürlich variieren.
Jetzt teile ich
1 310 720 / 30 = 43690, xxx
1 764 000 / 30 = 58800
2ter Schritt: Kleineres Ergebnis durch größeres [kleinere Auflösung durch größere]
43690 / 58800 = 0,7430xxx (74,30xx%)
Würde bedeuten, wenn wir die fps Rate von 1280*1024 als 100% ansehen (30fps), haben wir bei 1680*1050 nur noch 74,30% fps. Laut meiner Rechnung verlieren wir also 7,71fps und hätten bei 1680*1050 noch genau 22,29fps
So:
Könnte die Rechnung stimmen? ... Falls es weitere Auswirkungen gibt, die das Ergebnis beeinflussen, die ich nicht berücksichtigt habe, einfach hinschreiben.
So, ich versuche mal die die Belastung einer Grafikkarte darzulegen von einem Wechsel eines 5:4 CRT Monitors zu einem 22'' Widescreen TFT. Natürlich wäre die Rechnung, wenn sie richtig ist überall anzuwenden. Ich gehe hier nur von einem Auflösungswechsel aus, keine Qualitätsänderungen (eines Games)!
Zuerst rechnen wir mal die Pixel aus die wir pro Auflösung haben:
Bsp (jedenfalls mein gängige Spieleauflösung)
1280*1024 = 1 310 720 Pixel
(ausgewählte) WS Formate:
1680*1050 = 1 764 000 Pixel
1440* 900 = 1 296 000 Pixel (nicht berücksichtigt in der Rechnung)
So nun nimmt man eine durchschnittliche fps Zahl in einem Game. Beispielsweise nehme ich jetzt Stalker und sage mal 30fps, dürfte hinkommen [aufs ganze Spiel gesehen]. Zahl kann man natürlich variieren.
Jetzt teile ich
1 310 720 / 30 = 43690, xxx
1 764 000 / 30 = 58800
2ter Schritt: Kleineres Ergebnis durch größeres [kleinere Auflösung durch größere]
43690 / 58800 = 0,7430xxx (74,30xx%)
Würde bedeuten, wenn wir die fps Rate von 1280*1024 als 100% ansehen (30fps), haben wir bei 1680*1050 nur noch 74,30% fps. Laut meiner Rechnung verlieren wir also 7,71fps und hätten bei 1680*1050 noch genau 22,29fps
So:
Könnte die Rechnung stimmen? ... Falls es weitere Auswirkungen gibt, die das Ergebnis beeinflussen, die ich nicht berücksichtigt habe, einfach hinschreiben.
Zuletzt bearbeitet:
(Rechtschreibfehler)