Hz von 100 bis 250hz Wieviel Leistungsverlust von Grafikkarten?

A

Amusens

Gast
Hallo Computerbaseler,

Gibt es da eine Formel oder so.... wo man sagen kann das XY Grafikkarte weniger Leistung bring mit der Steigenden Hz Zahl?
Es kommen ja immer mehr Monitore im 21:9 Format die von 100Hz bis 144hz gehen und andere Monitore mit sogar 250Hz schaffen.
Die Auflösung spielt ja auch ne Rolle zB.


Danke
 
Die Bildfrequenz des Monitors ist für die Belastung der Grafikkarte unerheblich. Eine Graka, die in z.B. GTA V 60 fps bei einem FullHD Monitor mit 60 Hz liefert, bringt auch auf einem 144 Hz FHD Monitor 60 fps.
 
Hä? Die Leistung einer Grafikkarte sind doch quasi die erreichten FPS...

LG KeyKon
 
Amusens schrieb:
Gibt es da eine Formel oder so.... wo man sagen kann das XY Grafikkarte weniger Leistung bring mit der Steigenden Hz Zahl?

Die Formel Existiert .. und das Ergebniss dabei ist 0

... da eine Grafikkarte keine Leistung verliert bei mehr Hz des Monitors ... denn sie versucht immer die maximale Frames zu erzeugen ... oder beim Fall von Vsnyc eine Rundes Ergebniss in Absprache mit dem Monitor.
 
Hab ich was verpasst oder wieso sollte mit höherer Bildwiederholfrequenz ein Leistungsverlust einhergehen? Imo spielt einzig die Auflösung eine Rolle. Die Bildwiederholfrequenz sagt nur aus, wie viele FPS maximal dargestellt werden können. 60 Hz = 60 Aktualisierungen. 120 Hz = 120 Aktualisierungen (flüssigeres Bild)
 
Eine Grafikkarte hat immer gleich viel Leistung egal wie viel Hz. Wenn VSync deaktiviert ist wird sich nichts ändern wenn du dir nen Monitor mit 144Hz kaufst. Bei aktiven VSync sieht das etwas anders aus weil es dann halt nicht nur bis 60FPS geht sondern bis 144FPS damit ändert sich aber nicht die Leistung sondern nur die Auslastung der Graka. Ein Monitor mit viel Hz reduziert lediglich das Tearing was bei deaktiviertem VSync auftreten kann.
 
hmm Habs dann wohl Falsch Versanden ...

Wenn ich jetzt mit meine Grafikkarte ~70 FPS mit 60hz bekomme inGame bekomme ich auch ~70FPS mit 100Hz bis 250Hz , wenn es die selbe Auflösung ist?
 
Sahit schrieb:
Eine Grafikkarte hat immer gleich viel Leistung egal wie viel Hz. Wenn VSync deaktiviert ist wird sich nichts ändern wenn du dir nen Monitor mit 144Hz kaufst. Bei aktiven VSync sieht das etwas anders aus weil es dann halt nicht nur bis 60FPS geht sondern bis 144FPS damit ändert sich aber nicht die Leistung sondern nur die Auslastung der Graka. Ein Monitor mit viel Hz reduziert lediglich das Tearing was bei deaktiviertem VSync auftreten kann.

DAS stimmt so nicht. Auf einem 60 Hz-Monitor werden nur 60 Aktualisierungen pro Sekunde durchgeführt, auch wenn mehr als 60 FPS berechnet werden. Da "fühlen" sich 120 oder 144 Hz also genau so an wie konstante 60 FPS.
 
@ovi ok ich hätte sagen soll an der Grafikkarten Leistung ändert sich nichts. Klar ist das du den Unterschied bei 144Hz in "Flüssigkeit des Bildes" merken wirst.
 
ovi schrieb:
DAS stimmt so nicht. Auf einem 60 Hz-Monitor werden nur 60 Aktualisierungen pro Sekunde durchgeführt.

Nur wenn Vsync an ist ... bei deaktivierten Vsync wird das Bild sofort aktualisiert wenn es neu da ist ... Problem dabei es wird ab der nächsten Zeile des Monitors aktualisiert bis ein neues Bild da ist.

Falls du nun 300 FPS hast auf einem 60 Hz Modell hast du 4-5 mal Tearing.
 
Okay das mit Fühlen will ich jetzt erstmal aussen vor lassen weil da die Meinungen verschieden sind.

Dann ..kurz überlegen ............Wenn ich jetzt einen 250Hz Monitor habe mit der Selben Auflösung ....inGame ~70FPS habe, dann wird mir der Monitor 70FPS auch über den Monitor mit 70Hz Anzeigen.

Wusste ich auch nicht das bei 60Hz Monitoren auch nur 60FPS angezeigt werden .......man wird alt wie ne Kuh und lernt immer noch dazu ^^
 
Amusens schrieb:
Dann ..kurz überlegen ............Wenn ich jetzt einen 250Hz Monitor habe mit der Selben Auflösung ....inGame ~70FPS habe, dann wird mir der Monitor 70FPS auch über den Monitor mit 70Hz Anzeigen.

Wusste ich auch nicht das bei 60Hz Monitoren auch nur 60FPS angezeigt werden .......man wird alt wie ne Kuh und lernt immer noch dazu ^^

zum 70 FPS -> 70 Hz Nein ... der Monitor wird auf 250 Hz laufen und somit auch auf 250 Hz die Bilder Darstellen du musst einfach trennen Grafikkarte + Bildschirm.

eigentlich sogar Grafikkarte Rechenteil und Grafikkarte Anzeigeteil.

Den eigentlich wird ein Bild berechnet von der Grafikkarte und wenn das Fertig ist geht es in den Bildspeicher von der. Von dort greift der Monitor das aktuelle Bild ab.

Wenn jetzt die Grafikkarte ein neues Bild fertig hat wird das wieder in den Bildpuffer geladen und das alte Bild verworfen.
Und genau dann wird schon das neue Bild in der aktuellen Zeile die der Monitor erneuert an diesen Gesendet.

Wenn die Grafikkarte bei 250 Hz Monitor nur 10 Bilder in der Sekunde berechnet so werden auch nur 10 Bilder an den Monitor übersendet.
Auch wenn er 250 neue Bilder anzeigen könnte werden es dann halt 25x10 Bilder sein.

Auch 60 Hz Monitore können mehr als 60 FPS anzeigen ... Problem wie oben beschrieben nur anders herum es werden z.b. bei 180 FPS 3 Bilder gleichzeitig angezeigt da das Bild beim Aktualisieren des Monitors 2x neu berechnet wurde.

Dann bekommt man Tearing also zerrissene Bilder.

Anders das ganze bei Vsync.... hier wartet die Grafikkarte auf die Meldung vom Monitor das er das aktuelle Bild fertig angezeigt hat und gibt erst dann das neue Bild aus. Dabei synchronisiert die Grafikkarte sich auf Vielfache der Hz Zahl des Monitors.

Also bei einem 60 Hz Monitor mit 60 / 30 / 15 ... was dann schnell zu rucklern führt wenn man unter die 60 FPS rutscht.

Bei einem 250 Hz Modell wären die Abstufungen natürlich anders ... 250 / 125 / 62 / 31 / 16 ca .. wobei es wohl eher ein 240 Hz Modell sein wird wegen der runderen Abstufung.

Noch anders bei Gsync oder Freesync ... dort wird die Wiederholrate des Monitors an die der Grafikkarte angepasst und ist daher flexibel.
Grob gesagt kommt das Signal mit 47 FPS Raus so zeigt der Monitor das auch mit 47 Hz an ...
 
uff Okay

überleg..........


Wenn die Grafikkarte bei 250 Hz Monitor nur 10 Bilder in der Sekunde berechnet so werden auch nur 10 Bilder an den Monitor übersendet.
Auch wenn er 250 neue Bilder anzeigen könnte werden es dann halt 25x10 Bilder sein.


So ich versuche es mal
144Hz Monitor 72Hz 36Hz 18Hz
100Hz Monitor 50hz 25Hz 12,5Hz

Wenn ich einen 144Hz GSync Monitor habe der ohne G/V/Free Sync Läuft [und ich immer inGame 144FPS] werden mir 14,4<<Hz x10 Bilder angezeigt bei 144Hz ......mit G/FreeSync werden mit je nach FPS 144Hz bis zur niedrigsten Range?? (hat G/FreeSync von bis Hz Range) von Free/GSync...ähm ne Muss noch ne Nacht drüber schlafen ^^ .........
Ergänzung ()

was ist den Aktuell zB. jetzt schon meine Grafikkarte ~70FPS inGame mit Luft nach unten ^^ mit einem 60Hz Monitor ohne VSync, was passiert wenn ich jetzt einen Monitor kaufe mit der Selben Auflösung nur mit 100Hz oder 144Hz im selben Game? >Ist eh schnuppe weil ich so "wenige FPS " bekomme?
 
Naja, es werden dann halt wirklich 70 ganze Bilder und keine zerrissenen angezeigt werden, sobald die fps auf 60 fällt, ändert sich nix. Verstehe daher auch diesen Hz-Wahn nicht so ganz, aber ggf. stellen die Leute dann die Details runter um auf 120 fps o.ä. zu kommen, weil es für sie online oder so von nutzen ist. Ich hingegen drehe lieber die Grafikqualität höher...^^
 
Nun ich drehe auch immer alles auf Low 1.Graka zu schwach GTX680 ^^
2.merke ich beim Zocken nichts ob jetzt alles Ultra oder Löw ist (BF3 MWO oder Planetside2) zumindest nutze ich den VRAM aus merke schon wenn alles Pixelig und das sieht mist aus und will ich das auch nicht zocken.
ARK kann ich nicht zocken da sieht alles Kacke aus auf Low Pixelbrei ....Beim Singleplayer sieht das anderes aus (: da hat man viel Zeit :D und kann Max / Ultra Settings fahren wenn es die Graka mit macht.
 
Amusens schrieb:
.mit G/FreeSync werden mit je nach FPS 144Hz bis zur niedrigsten Range?? (hat G/FreeSync von bis Hz Range) von Free/GSync...

Ja die haben Min - Max ranges am Ende ...

genaue Werte nicht bekannt.

Und nochmal zu den Bildern ... du wirst mit eine Grafikkarte die kein Vsync hat auch keine reinen 144 FPS bekommen ... d.h. es werden immer so viele Bilder berechnet wie möglich sind.

d.h. wenn du 500 Bilder /s hast und der Monitor 120 Hz hast du bei einem Aufrischungsvorgang beim Monitor leider auch 3-4 Bildübergange

Tearing ist das Stichwort da bitte weiter belesen.

@ ARK ist halt arg CPU Lastig .. da macht die Grafikkarte am Ende nicht viel aus.
 
Zurück
Oben