• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Dirt Rally Benchmarks: AMD liegt vorne, bleibt aber nicht unfallfrei

Sehe ich auch so
allerdings das auge nimmt ab 25 bilder pro sekunde ein flüssiges Bild wahr
daher komt die annahme das menschen nur 24fps sehen können her
das mit den Impuls ist gut erklärt
das aber je höhe rdie fps desto früher erkennt man einen ist im groben cheat
da lobe ich ein fps lock seitens der entwickler
Wie einst cod black op cod 4
 
syfsyn schrieb:
Sehe ich auch so
allerdings das auge nimmt ab 25 bilder pro sekunde ein flüssiges Bild wahr
daher komt die annahme das menschen nur 24fps sehen können her
das mit den Impuls ist gut erklärt
das aber je höhe rdie fps desto früher erkennt man einen ist im groben cheat
da lobe ich ein fps lock seitens der entwickler
Wie einst cod black op cod 4

die einen spielen lieber mit 144fps die anderen mit 60fps und freesync und andere mit ner maus, alles vorteile die andere nicht haben. es soll leute geben die sitzen auf bequemen stühlen andere nicht. irgendwo hörts halt auf!
 
Mich würde mal interessieren, ab wie viel Hz kein Flimmern mehr, unter Verwendung eines Bildschirms, mit einer Persistenz von einer Millisekunde, wahrgenommen werden kann.
Erst ab dem Punkt, könnte man faktisch behaupten, es gäbe aufwärts keinen Unterschied mehr.
90hz dagegen wirken zu willkürlich und Flimmern für zu viele Personen, mich eingeschlossen, eben noch.
 
Jesterfox schrieb:
Ab 24Hz nimmt unser Gehirn einzelne Bilder nicht mehr einzeln sondern als Bewegung wahr. Das heißt aber nicht das man nicht trotzdem den Unterschied zu höheren FPS sehen könnte... gerade im Augenwinkel sind wir extrem empfindlich auf Veränderungen. [...]

Und gerade im Augenwinkel hat das Auge eine schnellere Reaktionszeit, da dort viel weniger Verschaltungen auf einen Zapfen treffen als zum Beispiel in der Fovea, dem Fokuspunkt/Punkt des schärfsten Sehens. Nicht jeder (genau genommen kein einziger) Zapfen besitzt eine direkte Verschaltung zum Sehnerv -> Gehirn. Es sind immer mehrere Zapfen mit Inhibitor-Zellen verbunden, die erst auf mehrere Anreize ein Signal an den Sehnerv senden.

Im Fokuspunkt gibt es viele Zapfen, die sehr stark miteinander verschalten sind, damit das Auflösungsvermögen hoch ist. Im Augenwinkel hingegen sind wenige Zapfen zusammengeschaltet, was sich zugunsten der "Latenz" auswirkt.

Der determinierende Faktor für das "Flüssigkeitsgefühl" ist das Gehirn, nicht das Auge. Das Auge sendet sehr schnell sehr viele Informationen, da benachbarte Zapfen zwischen dem Signaleingang, die die Sehkaskade und damit ein Aktionspotenzial auslöst und dem darauffolgenden notwendigem Aufbau des Ruhepotenzials (damit wieder eine neues "Signal" aufgenommen werden kann) weiter empfänglich sind vice versa. Das erreicht das Auge durch Verschaltungen der Zapfen. Es vergehen laut Quellen 2-3ms, bis der selbe Zapfen wieder einen neuen Impuls aufnehmen kann. Aus all diesen Gründen werden sehr häufig Informationen ans Gehirn gesendet, das daraus aber viel selektiert und dadurch seine "eigene Wirklichkeit" bastelt.

Gerade deswegen bemerken auch manche Personen, (die einen guten/aufmerksamen Selektionsprozess ihr Eigen nennen) Mikroruckler, Ministocker, Tearing, Nachladeruckler etc.. Ihr Gehirn bekommt diese Informationen schnell genug überliefert und erkennt einfach diese "Fehler" in der Matrix^^
 
Zuletzt bearbeitet:
Ich denke, wenn VR etwas aus den Kinderschuhen wächst, werden wir darauf ziemlich praktische Antworten bekommen.

Jesterfox schrieb:
gerade im Augenwinkel sind wir extrem empfindlich auf Veränderungen.

Eben, Veränderungen, Kontrast. Deshalb nimmt man Motion Blur so leicht wahr, da es tatsächlich das Bild an ein und derselben Stelle recht stark verändert und besagtes Flimmern. Ein leicht flüssigeres Bild ist keine besonders große Veränderung, das ist eher Detailsicht.

Aber ja, deshalb sind wir bei VR noch lange nicht am Ende der Fahnenstange für FPS. Ich denke aber auch da wird spätestens ab 120Hz auf Interpolation und Reprojektion zurückgegriffen werden – macht Sony ja schon „heute“ mit Playstation VR, und das von 60 auf 120Hz. Den Unterschied zwischen echten und simulierten höheren FPS wird über 120fps wirklich keiner bemerken.
 
Zuletzt bearbeitet:
MotherPink schrieb:
Mich würde mal interessieren, ab wie viel Hz kein Flimmern mehr, unter Verwendung eines Bildschirms, mit einer Persistenz von einer Millisekunde, wahrgenommen werden kann.
Erst ab dem Punkt, könnte man faktisch behaupten, es gäbe aufwärts keinen Unterschied mehr.
90hz dagegen wirken zu willkürlich und Flimmern für zu viele Personen, mich eingeschlossen, eben noch.
habs getestet.
strobelight geht nur mit 100,110 und 120 hz. es fühlt sich unruhiger an, einzelne schwarze bilder sieht man nicht. das bild wird auch etwas dunkler, was man aber gegenregeln kann. zum zocken kann mans wohl anmachen zum surfen ist es etwas unangenehm, könnte auch bei kopfschmerzempfindlichen wie mir auch kopfschmerzen auslösen, wie ein crt von damals halt.
die schärfe nimmt tatsächlich zu.

edit: in bf4 konnte ich aber trotzdem keinen vorteil sehen, im gegenteil es spielt sich unruhiger. ich habs auch mit 60fps120hz getestet.
mit 144hz/fps spielt sichs am flüssigsten.
 
Zuletzt bearbeitet:
Ist dieses Advanced Blending so etwas wie Motion Blur, der einzige Effekt den man erkennt ist der, das die Bäume und die Wolken unscharf wirken. Ich bin eh kein Freund von Motion Blur, auch die Bewegungsunschärfe ist eines der Feature die ich als erstes deaktiviere. Diese Feature benötigen viel Rechenleistung und sehen dazu noch beschissen aus, verstehe eh nicht wie man sich einen 2K oder 4K Monitor kaufen kann und dann sich durch solche Feature im Nachhinein die Bilder durch Unschärfe versaut.
 
ja, sowas in der Richtung ist das wohl, irgendein Unschärfe-Effekt für entfernte Objekte. Ich habe zwar Dirt Rally noch nicht aber ich schalte sowas wie Bewegungsunschärfe auch generell aus. Der Effekt hat mir von Anfang an nicht zugesagt obwohl er damals großartig angepriesen wurde.
Ok, Advanced Blending ist zwar erstmal deaktiviert, werd's mir vermutlich aber mal anschauen und danach wieder vergessen. ;)
 
Zuletzt bearbeitet:
Hehe, soviel Blödsinn in Wort und Bild zu der 24 Fps Thematik habe ich schon lange nicht mehr gelesen bzw. gehöhrt.

Es gibt eine ganz einfache Erklärung: Zu Anfang des Films brauchte man ~25 Bilder (Ich meine es waren genau 24,6, bin mir aber nicht sicher) pro sec. damit kein schwarzer Balken von oben nach unten oder umgekehrt, über den Bildschirm wanderte.

Früher bestanden die Filme ja aus auf einander gereihter Einzelbilder. Zwischen den Bildern war immer ein minimaler schwarzer Rand und den hat man gesehen wenn der Film zu schnell oder zu langsam abgespielt wurde.

Am Besten fand ich die Erklärung zu der 25 FPS Theamtik, mit den Blurays in dem einen Video, der Typ hat da sowas von Rumgestammelt, dabei war das totaler Bullshit...

Ansonsten ist das so ein komplexes Thema, da kann man Grundsätzlich keine pauschalen Aussagen zu machen.
 
Jesterfox schrieb:
Ab 24Hz nimmt unser Gehirn einzelne Bilder nicht mehr einzeln sondern als Bewegung wahr.

Na doch, nur verwischt Motion Blur in Filmen die Ruckelei eben ziemlich gut (auch bei schnellen Bewegungen, da ist der Motion Blur dann stärker ausgeprägt) und man nimmt sie deshalb nicht mehr so wahr. Also ich sehe in Filmen mit 24 fps bei langen seitlichen Schwenks immer noch trotz Motion Blur ein Ruckeln. Sonst würde man ja zwischen 24 fps und höheren Bildraten in Filmen keinen Unterschied sehen, aber den sieht man ja und zwar recht deutlich. Bewegungen sind einfach viel flüssiger und die sich bewegenden Objekte schärfer.

Das hängt natürlich auch von der Geschwindigkeit der Bewegung ab. Wenn sich ein Objekt in einer Minute vom linken zum rechten Rand bewegt, ist es wohl ziemlich latte, ob man in 24 oder 60 fps guckt, bewegt sich das Objekt in einer Sekunde über den Bildschirm, sieht das schon ganz anders aus.

Screenshot aus einem Actionfim, 24 fps, während einer sehr schnellen Drehung:

201512110408hcdkg307bv.jpg

Ohne Motion Blur wäre das bestimmt grausam anzuschauen.


P. S.: Hab ich grad gefunden, da kann man wunderbar mit rumspielen:

https://frames-per-second.appspot.com/
 
Zuletzt bearbeitet:
mit den Filmen stimmt wirklich
In filmen muss man konstante fps haben ansonsten wirkt es unruhig
ich hatte das mal bei einen stream von 24 bis 1000 unerträglich
Ständig ruckelte irgendwo was
das mit dem blur in filmen ist auch wahr
schnelle action filme haben ja deswegen keine schnellen schwenks also bild innerhalb 1 sekunde um 180grad gedreht
Weil dann das verschwimmen extrem deutlich wird
aber so generell sind kleine schwenks die auch schnell sein können in action filmen dabei
60fps bzw 50fps in Fernsehserien erkenne ich immer sofort
Als damals in RTL gute zeiten schlechte zeiten lief war dies auch in 50fps
Das sah man deutlich und war für mich damals eher das merkmal billig zu produzieren (ich war 16 Jahre alt 1992)
Unwissenheit eben
Heute würde ich Seien in 50fps auch weniger mögen, den flair mit 25 30fps hat sein Scharm
variable ist extrem schlecht
In spielen gilt je mehr desto besser aber auch da ist ab einer bestimmten fps einfach sinnlos und der look des spiels leidet exrem darunter.
 
Die fps-Diskussion (ab wie viel Hz man noch eine Flimmern erkennt, oder nicht) der letzten 5 Seiten ist absolut offtopic, und hat überhaupt nichts mehr mit Dirt Rally gemein.


Hier haben wir jetzt einen AMD Gaming Evolved Titel, bei dem die Effekte auf AMD-Karten schlecht laufen, und mit Just Cause 3 hatten wir ein Game bei dem Nvidia-Karten mit GameWorks schlecht laufen. Damit haben wir zwei Bsp. die alle Verschwörungstheorien davor entkräften, und zeigen dass die User viel zu viel hinein interpretieren. Schlecht optimiert wird auf beiden Seiten, und dass trotz angeblicher Unterstützung.
 
zeedy schrieb:
Die Überschrift ist natürlich wieder typisch CB. Und ich frage mich weiterhin, warum CB Battlefront nicht gebencht hat...

Die Frage hast du dir doch selbst beantwortet ;)
Bringt nichts, egal wievielen Usern das auffällt und wie viele sich dazu äußern, Hopfen und Malz und so. Ist eben schon etwas länger die NvidiaBase - warum nicht gleich das blaue Theme auf Grün ändern :D

Fakt: Im Nvidia Forum kann man sich besser über Grafikkarten unterhalten als hier. Hier gibts nur Fanatiker.

mfg,
Max
 
Zuletzt bearbeitet:
matty2580 schrieb:
Die fps-Diskussion (ab wie viel Hz man noch eine Flimmern erkennt, oder nicht) der letzten 5 Seiten ist absolut offtopic, und hat überhaupt nichts mehr mit Dirt Rally gemein.


Hier haben wir jetzt einen AMD Gaming Evolved Titel, bei dem die Effekte auf AMD-Karten schlecht laufen, und mit Just Cause 3 hatten wir ein Game bei dem Nvidia-Karten mit GameWorks schlecht laufen. Damit haben wir zwei Bsp. die alle Verschwörungstheorien davor entkräften, und zeigen dass die User viel zu viel hinein interpretieren. Schlecht optimiert wird auf beiden Seiten, und dass trotz angeblicher Unterstützung.

Auch in Just Cause 3 laufen AMD Karten idr. schlechter. Zwar sind die FPS relativ gut, aber sobald es Phsyiklastig wird, brechen die AMD Karten sehr stark ein.
Digital Foundry hat dazu einige Videos auf Youtube gestellt, die die Problematik immer wieder zeigen. Es ist schon krass, wie z.B. ne GTX970 in action Szenen z.B. 60 FPS halten kann, während die 390 beim Klick auf die Maustaste (dauerfeuer) plötzlich bis auf 40 FPS einbricht, nur um danach wieder genauso schnell wie die NVidia Karte zu rendern.

Auch hier wird explizit das AMD Overhead Problem genannt. Es zieht langsam wirklich große Kreise. Für mich sind diese Karten momentan absolut nicht zu empfehlen. Mittlerweile ist es nicht mehr so, dass Nvidia einen Vorteil hat, weil sie "gut" optimiert haben. Nein, AMD hat nen Nachteil in Form von deutlichen, plötzlichen FPS einbrüchen.

Wenn AMD an der Problematik nicht schnellstens was ändert, könnte ihnen das entgültig das Genick brechen. Auf DX12 ist doch eh kein Verlass. Bis das mal flächendeckend genutzt wird vergehen noch mindestens 2 Jahre.
Ich mein, wenn man das Problem nichtmal mehr in den eigenen Gaming Evolved Spielen in den Griff bekommt mit eigenem Forward+ Renderer, dann ist es wirklich allerhöchste Zeit, mal in die Pötte zu kommen.
 
Zuletzt bearbeitet von einem Moderator:
Bezügl. der Hz/FPS Diskussion hab ich bei mir einfach mit ein Paar Spielen getestet, was besser für mich ist.
144 FPS ohne Freesync auf meinem 144 Hz Monitor fühlen sich zwar ganz gut an, jedoch kein Vergleich zu 60-120 FPS + Freesync.
Daher spiele ich nur noch mit Freesync und kann nebenbei noch die Details höher stellen.

Gruß Iss
 
Zuletzt bearbeitet:
Mal zur FreeSync/G-Sync Debatte auch meinen Senf:

Das Problem bei G-Sync: Die Monitore sind mir viel zu teuer.
Das Problem bei FreeSync: Ich will keine AMD Grafikkarte*.

Und das ganz große Problem bei beiden: Ich würde mich mit beiden Methoden an den jew. Hersteller binden, da AMD kein G-Sync können wird und Nvidia kein FreeSync unterstützen wird.

* = Nein, ich bin kein Fanboy. Jeder kann kaufen was er für richtig hält.
 
Zuletzt bearbeitet:
paccoderpster schrieb:
Und das ganz große Problem bei beiden: Ich würde mich mit beiden Methoden an den jew. Hersteller binden, da AMD kein G-Sync können wird und Nvidia kein FreeSync unterstützen wird.

Vor dem gleichen Problem stand ich auch. Da aber Freesync einem offenen Standard basiert, der auch von Intel künftig unterstütz wird, war die Entscheidung schnell gefunden. Außerdem wollte ich mich von NV nicht nochmal so verarschen lassen wie mit meiner Kepler Karte.
nVidia kann ihr proprietäres Zeugs behalten.

Gruß Iss
 
issenia schrieb:
[...]Da aber Freesync einem offenen Standard basiert, der auch von Intel künftig unterstütz wird, war die Entscheidung schnell gefunden. [...]
nVidia kann ihr proprietäres Zeugs behalten.

Nur das FreeSync von Intel bald unterstüzt wird, bringt mir als Spieler sehr wenig. Ich glaube ich werde mit beiden Methoden (momentan) nicht glücklich und bleibe einfach bei meinen 1080p120@Lightboost, auch wenn meine 770 ganz schon ins Schwitzen kommt, um auch so viele Bilder zu liefern (oder in Fallout 4 oder Assassin's Creed II wo die Engine limitiert :() und binde mich einfach an keinen Hersteller :D.
 
Laggy.NET schrieb:
Wenn AMD an der Problematik nicht schnellstens was ändert, könnte ihnen das entgültig das Genick brechen. Auf DX12 ist doch eh kein Verlass. Bis das mal flächendeckend genutzt wird vergehen noch mindestens 2 Jahre. Ich mein, wenn man das Problem nichtmal mehr in den eigenen Gaming Evolved Spielen in den Griff bekommt mit eigenem Forward+ Renderer, dann ist es wirklich allerhöchste Zeit, mal in die Pötte zu kommen.
Ich sehe das ähnlich. AMD hat da noch viel Arbeit vor sich. Ich befürchte aber, dass man sich ganz auf DirectX 12 konzentriert, und versucht dass Problem auszusitzen.

Mir ging es hauptsächlich um die Verschwörungstheorien davor in Bezug auf GameWorks, aber auch Game Evolved. Es gibt nun Bsp. die genau das Gegenteil zeigen. D.h. die angeblich künstlich erzeuge Benachteiligung des Konkurrenten gibt es nicht in dieser Form, sondern die Probleme liegen in ganz anderen Bereichen, z.B. in dem von dir genannten Overhead bei AMD. Die Diskussion wird in Zukunft hoffentlich zum Thema GameWorks und Game Evolved etwas sachlicher geführt. ^^
 
Zuletzt bearbeitet von einem Moderator:
matty2580 schrieb:
Ich sehe das ähnlich. AMD hat da noch viel Arbeit vor sich. Ich befürchte aber, dass man sich ganz auf DirectX 12 konzentriert, und versucht dass Problem auszusitzen.

Sieht ganz danach aus. Man hätte ja mit dem Crimson-Treiber nochmal Optimierungen raushauen können. Es ist aber nichts passiert. Dann wird wohl auch nichts mehr kommen. Aber man hat ja immer noch die Wahl welche Karte man kauft.

Das alles wäre an und für sich auch gar nicht das Problem, denn DX12 steht ja quasi vor der Tür. Das Problem ist, dass nicht jemand kommt und über Nacht einen Schalter umlegt und am nächsten Morgen läuft dann plötzlich alles ohne diese Flaschenhälse unter DX12 was vorher unter DX11 lief. Es ist auch noch unklar ob Neuentwicklungen zwingend gleich auf DX12 setzen, denn dies wird ja nur von Windows 10 unterstützt. Es wird sicherlich noch auf Jahre DX11-Spiele geben, und bei diesen Spielen ist es dann wieder nicht sicher ob sie einen alternativen DX12-Renderpfad mitbringen. Da die Ansätze von DX11 und DX12 so verschieden sind, kommt manch einer vielleicht zu dem Schluss, dass es (aus Kostengründen) ausreicht den kleinsten gemeinsamen Nenner zu unterstützen, so wie es schon (fast) immer war.
 
Zuletzt bearbeitet:
Zurück
Oben