Test Ashes of the Singularity: Leistungsexplosion durch DirectX 12

gabbercopter schrieb:
framat c ...aber jeder hat eine 980 und 980ti im PC deswegen ist die natürlich intressanter für die leser....NICHT

schon richtig aber vermutlich 100x mehr als ne Nano und wie gesagt gehts mehr um das Verhalten selbst, da dürfte der Unterschied Nano Fiji zu Fury X gegen 0 gehen.
 
Schöner Test CB, das Game wird toll sein. Aber was soll der Hype um NV und ATI hier im Forum? Ich fand toll das man jetzt beide in einem Rechner nutzen kann, hat also beide Vorteile der Hersteller! Und was soll dasganze Gelabber über mehr FPS? ab 60 sieht man keine Besserung mehr. Was soll man mit 160 FPS??? mfg
 
hzdriver schrieb:
ab 60 sieht man keine Besserung mehr. Was soll man mit 160 FPS???

Ernst gemeint?

Spiel' mal CS:GO mit fps-Limit auf 60 und unlimitiert (300fps oder so) - das merkst du sofort. Stichwort: Input-Lag. Je höher die fps, desto kürzer ist das Zeitintervall zwischen Input und einem neuen Bild.

Worst-case der Differenz ist bei 60fps 16,6ms, bei 300fps nur 3,3ms.
 
Zum Thema FPS:
https://www.youtube.com/watch?v=m6igZbQm75s

Ja, mehr als 60fps sind sinnvoll.
Aber solange man keine HighEnd-Karte hat oder kompetitiv spielt, ist es meistens sinnvoller, mit 60fps zu zocken und dafür eine schönere Optik zu haben.
 
DrToxic schrieb:
Ernst gemeint?
Spiel' mal CS:GO mit fps-Limit auf 60 und unlimitiert (300fps oder so) - das merkst du sofort. Stichwort: Input-Lag. Je höher die fps, desto kürzer ist das Zeitintervall zwischen Input und einem neuen Bild.

Da hast Du schon recht aber auch nicht. Ich habe dann wenn ich nicht auf 60 FPS fixiere [Vsync] deutlich weniger Input-Lag dafür aber dann Tearing, was nicht wirklich schön aussieht und den Vorteil des geringen Input-Lag wieder zu Nichte macht. Letztlich ist es ein abwägen, was einem persönlich lieber ist und besser gefällt. Und genau hier macht ja Gsync oder Feesync Sinn, ich habe hohe FPS und kein Tearing [vorausgesetzt die Grafikkarte ist Leistungsstark genug].

Aber auch hier steckt man dann als User in einem Dilemma, Gsync funktioniert im Bereich von 30-144 Hz ist aber durch das Modul [Hardwarelösung] sehr teuer und die Monitore kosten entsprechend mehr Geld. FreeSync verursacht dem Monitor Hersteller keine zusätzlichen kosten [Softwarelösung], dementsprechend sind die Monitore auch deutlich günstiger. Nur ist es ja bis auf wenige Ausnahmen so, das FreeSync nur von 35/40 bis 90Hz oder 40/56 bis 144 Hz funktioniert. Also bleibt nur zu hoffen, das FreeSync sich durchsetzt und in Zukunft dies bei allen Monitoren auch im Bereich von 30 bis 144 Hz funktioniert, wie bei Gsync. ;)
 
Wieso gibt es eigentliche noch keine Technik um ne "Wartezeit" einzubauen.
Wenn man ne GPU hat die 300fps schafft, also alle 3,33ms ein Bild, ist es doch sinnlos mit V-Sync ein Frame zu berechnen und dann noch 13ms zu warten bis es ausgegeben werden kann. Ohne V-Sync wiederum ist es sinnlos in der Zeit 6 Bilder zu berechnen von denen 5 verworfen werden.
Sollte doch möglich sein zu sagen, dass die GPU nach jedem ausgegebenen Bild erstmal +-10ms wartet (Wartezeit muss vom Benutzer einstellbar sein) und dann das Bild berechnet, in dem Fall mit (vom Nutzer eingestellten) 10ms Wartezeit wäre es dann 3.33ms Bild berechnen und 3,33ms warten, hätte man nen Inputlag der nur doppelt so hoch ist wie ohne V-Sync, nen Puffer für Fps-Schwankungen und kein Tearing.

Aber gut, Sync gibt es ja heutzutage, da ist das nicht mehr so wichtig.
 
@Zotac: Sowohl G- als auch Freesync sind Hardwarelösungen. Bei Freesync kann der Monitorhersteller einfach einen beliebigen geeigneten Scaler verbauen. Nividia will den Umsatz selbst mitnehmen und verkauft den hauseigenen Scaler eben selbst. Das Modul selbst macht nicht viel mehr als zu sagen: "hey ich kann Gsync". Das lässt man sich dann mit ein paar hundert Dollar vergolden.
Technisch könnte Nvidia genauso mit jedem FreeSync-Monitor kommunizieren, sieht man ja an Notebook Gsync. Aber dann kann man ja nicht zweimal abkassieren
 
Nai schrieb:
@ TheDarkness
Weil man die gesamte Spieleengine darum herumbauen müsste, und bei einer Fehlabschätzung ein Bild lang warten müsste.
Wieso die spieleengine?
Es reicht doch wenn man dem Treiber sagt er soll nach jedem berechnetem Bild für x ms vorgaukeln die GPU wäre beschäftigt.
Wäre halt ein Feature für fortgeschrittene Nutzer und wenn sie die Fps-Schwankungen nicht richtig einschätzen ihr Problem. (Wobei der Puffer für 30-60fps in meinem Beispiel eigentlich reicht, unter 30 ruckelt es sowieso, dann ruckelt es eben stärker)
 
@rg88
Das ist leider nicht Richtig, FreeSync ist eine reine Softwarelösung, hier mal ein kleiner Auszug von HardwareGames:

AMDs neue Technik ist nicht mit jeder Hardware kompatibel. Unsere Tabellen geben Ihnen einen Überblick der aktuell verfügbaren, Freesync-fähigen Hardware. Übrigens: Rein theoretisch sollte Freesync auch mit Geforce-Grafikkarten kompatibel sein, da es sich im Gegensatz zu Nvidias G-Sync um eine reine Softwarelösung handelt (sofern die GPU denn den Adaptive-Sync-Standard vom Displayport 1.2a unterstützen). Da Nvidia sich aber ins eigene Fleisch schneiden würde, wenn ihre Grafikkarten Freesync unterstützen würden, gehen wir nicht davon aus, eine offizielle Lösung zu sehen. Möglicherweise werden sich aber demnächst gehackte Treiber im Netz finden. Wir halten Sie auf dem Laufenden.
 
@Zotac2012: Genau genommen stimmt das nicht ganz, denn FreeSync setzt ebenfalls passende Hardware voraus. Ein spezielles "Modul" ist aber nicht erforderlich, zudem ist die Funktion standardisiert. AMD verdient daran allerdings kein Geld, auf der anderen Seite ist zu erwarten, dass eine größere Zahl an Displays den Standard unterstützt. nVidia hingegen verdient mit jedem Display, wobei irgendwann wohl auch FreeSync unterstützt werden wird.
 
FreeSync ist eine Software-Lösung, es spricht nämlich den Vesa-Standard Adaptive-Sync an, der wiederum Hardware in Form von verbauten Scalern benötigt. GSync ist auch eine Hardware-Lösung, aber nicht zum Vesa-Standard kompatibel und proprietär, weshalb es deutlich seltener verbaut wird.
 
TheDarkness schrieb:
Wieso die spieleengine?
Es reicht doch wenn man dem Treiber sagt er soll nach jedem berechnetem Bild für x ms vorgaukeln die GPU wäre beschäftigt.

da muss man weiter denken. Gleichmäßige Ausgabe ist das eine, mit Warten ist das aber nicht getan. Dein Bild ruckelt auch wenn der Inhalt nicht zur Gleichmäßigkeit der Ausgabe passt. Angenommen du hast einen gleichmäßigen Kameraschwenk... perfekt zeitlich ausgegeben, ruckelt dennoch wenn sich das Objekt von Bild 1 auf Bild 2 um 2cm verschiebt und in Bild 3 dann plötzlich 3 cm.

Es ist eine Kunst für sich also die zu erwartende Berechnungsdauer in Verbindung mit Ausgabe zu bringen, sodass der Inhalt des neu errechneten Bildes auch dazu passt. :)
Es sind schlicht mehr Faktoren die zur flüssigen Darstellung gehören als "nur" eine zeitlich perfekte Ausgabe.
 
Zotac2012 schrieb:
Das Problem bei Monopolisten [wie Microsoft] ist, das meist die Innovation auf der Strecke bleibt, weil man an Altbewährtem festhält [vor allem wenn nach wie vor der Umsatz und Gewinn generiert wird] und neue Innovationen kosten Geld/Zeit und Ressourcen. Nachdem AMD mit Mantle gezeigt hat, was man mit einer quasi Weiterentwicklung von DX11 [auch wenn Mantle eine neue API war] möglich ist und welch großes Interesse Weltweit damit geweckt wurde [gerade um auch schwächere CPUs zu entlasten/ CPU Overhead und die Grafikkarten noch besser Auszulasten], hat MS die Weiterentwicklung von DirectX wieder aufgenommen und DX12 entwickelt. Hier konnte man wieder einmal sehen, wie wichtig Konkurrenz ist, um Innovationen/Neuerungen voran zu treiben.

Das Windows 7 mit Vulkan irgendwann schneller arbeitet, als Windows 10 mit DX12 ist recht unwahrscheinlich, MS wird in Windows 7 nichts mehr investieren und weiterentwickeln, da dies ein Auslaufmodell ist. Und Vulkan ist zwar eine Plattformübergreifende API, aber ich glaube kaum, das man dort auf spezielle Bedürfnisse von Windows 7 eingeht, vor allem wenn man weiß, das dies ein sterbendes Betriebssystem ist.


Die Sache ist ja die das Monopolisten dazu neigen Innovationen mit Geld "auszubremsen" wenn man es nett ausdrücken möchte.
Und wegen Mantle ist es so das die Spielentwickler seit der Einführung mit DX 11 keine Zukunft gesehen haben...nicht umsonst hat DICE die Hersteller (und wohl auch MS) nach Alternativen gefragt bzw. Vorschläge gemacht.
AMD sah darin eine Bestätigung ihrer CPU Politik und sprang auf den Zug auf was dann mit Mantle Eindrucksvoll präsentiert wurde und mit Einzug in DX 12 und Vulkan endete.

Viele Grüße,
stolpi
 
Zuletzt bearbeitet:
BookerDeWitt schrieb:
FreeSync ist eine Software-Lösung, es spricht nämlich den Vesa-Standard Adaptive-Sync an, der wiederum Hardware in Form von verbauten Scalern benötigt. GSync ist auch eine Hardware-Lösung, aber nicht zum Vesa-Standard kompatibel und proprietär, weshalb es deutlich seltener verbaut wird.

Womit wir wieder beim Punkt "Definitionssache" wären ;)
Wenn eine spezielle Hardware benötigt wird, wie bei F/GSync ein geeigneter Scaler, dann ist es für mich eine Hardwarelösung. Dass dazu natürlich zusätzlich Software für die Synchronisation nötig ist, ist natürlich auch klar.
Von dem her ist doch der einzige Unterschied, dass Nvidia noch einen mehr oder weniger sinnlosen Chip dazubaut um das System zu verdongeln.
Oder verstehe ich das falsch?
 
Also wenn ich das richtig verstanden habe, dann ist der Scaler ja im Monitor vorhanden, wenn dieser Freesync unterstützt [Voraussetzung] und um FreeSync dann zu nutzen, brauche ich nur noch die Software. Das heißt, es wäre ja dann Theoretisch möglich, mit einem FreeSync Monitor und einer Nvidia Grafikkarte dieses zu Nutzen, wenn ich z.B. die FreeSync Software im AMD Treiber entsprechend auf eine Nvidia Grafikkarte Patche, oder Nvidia in ihrem Treiber die FreeSync Software implementiert.
 
@Zotac2012
Es ging mir mehr darum die seltsame Aussage "Alles über 60fps bringt eh nix" zu widerlegen.
Tearing habe ich in CS:GO seltsamerweise selbst bei 300fps nicht merklich. Man muss halt auch bedenken, dass dann die Frames so schnell kommen, dass der Versatz zwischen zwei Bildern auch bei schnelleren Bewegungen minimal ist.
ArmA3 sieht z.B. ohne V-Sync bei 80fps @100Hz Monitor zerrissen wie sonst was aus.

TheDarkness schrieb:
Wieso gibt es eigentliche noch keine Technik um ne "Wartezeit" einzubauen.
Gibt es. Nennt sich gemeinhin Framelimiter ;)

fps_limit = 100 und man hat immer exakt 10ms, was zwischen unlimitiert (3,33ms) und VSync on (16,7ms bei 60Hz) liegt.

TheDarkness schrieb:
Ohne V-Sync wiederum ist es sinnlos in der Zeit 6 Bilder zu berechnen von denen 5 verworfen werden.
Naja, bei CS:GO ist mir das wichtig. Da langweilt sich die GraKa eh bei 30% Auslastung, dafür habe ich dann aber minimalstes Inputlag.
 
@Zotac:
Das ist mir durchaus klar. Aber bei Gsync ist es doch genau das selbe. Der Unterschied ist, dass die Hersteller das Modul also den Scaler für nen Wucherpreis bei Nvidia kaufen müssen. Ansonsten seh ich da nicht, wo jetzt das eine oder andere mehr Hard- oder Softwarelösung ist.
 
DrToxic schrieb:
Ernst gemeint?

Spiel' mal CS:GO mit fps-Limit auf 60 und unlimitiert (300fps oder so) - das merkst du sofort. Stichwort: Input-Lag. Je höher die fps, desto kürzer ist das Zeitintervall zwischen Input und einem neuen Bild.

Worst-case der Differenz ist bei 60fps 16,6ms, bei 300fps nur 3,3ms.

Dir ist aber schon klar dass Input-Lag nur "indirekt" mit dem FPS-Lag gekoppelt.

Der Input-lag entsteht nicht in einer GPU etc...das heisst wenn du 300FPS hast kannst du dennoch einen input lag von 1s haben (also 1FPS)...

Die GESAMT-Reaktionszeit kann man definieren als 1/FPS + Inputlag...daher wenn ersters klein ist UND letzteres klein ist hat man am meisten davon - aber allein MEHR FPS reduzieren deinen "Inputlag" nicht.
 
Zurück
Oben