Wie macht AMD nun weiter?

whats4 schrieb:
denn wenn du deinen vermeintlichen und *von der öffentlichkeit gefühlten* konkurrenten tötest, bekommst du das gesicht deines schlimmsten feindes zu sehen: der anti-monopolisten prozess vor einem gericht, daß zwar nicht gott ist, aber dem nahekommt.

gedankenexperiment:

amd verkündet "wir können aus wirtschaftlichen gründen keine gaming gpus mehr machen, wir hören auf"

nvidia wird monopolist - und wird von dieser beinahe göttlichen macht der "anti-monopolisten" zerschlagen.

und ne woche später findet lisa su am ende des regenbogens n topf voll gold und ne skizze für die SCN (Super Core Next :evillol:) architektur und verkündet: "jaaa, also wir sind doch wieder dabei"

was passiert dann? nvidia wieder zusammenflicken?

so eine zerschlagung passiert nicht automatisch, sobald jemand "aus versehen" monopolist wird. wer will nvidia nachweisen, dass sie amd "getötet" haben?

und publicity? schlimmer wie nvidia in 2017/2018 mit GPP usw. usf. ging ja fast nicht. mittlerweile wieder alles vergessen.
 
nein, dann wird sich *über nacht* ein neuer konkurennt *manifestieren*, so geht das spiel.
man kann dafür sorgen, daß es immer mindestens 2 sind, haben doch ms und das obst vorgemacht.
 
duskstalker schrieb:
wir haben ja jetzt schon das problem, dass "gameworks" spiele die "normalität" sind - und "neutrale" spiele automatisch "amd cherry picking" ist. far cry 5 sei "vega optimiert", weil die 1080 nicht durch die bank gewinnt - ich würde eher sagen "geht so". oder findet ihr, dass vega in far cry 5 brutal abliefert? das vorzeigespiel schlechthin?
Da kann ich nur zustimmen!
duskstalker schrieb:
Da würde ich gerne die Testszene sehen. Ich habe das Spiel selbst letzte Woche gekauft und durchgespielt(auf einer Vega64).
Spielerisch kann ich es empfehlen....es gibt nicht die eine Buildorder, die zum Sieg führt...man muss für "Schwer" auch wirklich gut den schmalen Grad zwischen überleben im hier und jetzt und ausreichend Investition in Forschung und income für die Zukunft finden. Es gibt nicht so viel Inhalt aber der ist gut gemacht und gebalanced.

Was mir aufgefallen ist...an Anfang ist das Spiel GPU limitiert. Auf 1440p mit höchsten Einstellungen ca 60+ FPS.
Für so ein Spiel ausreichend und schick.

Später wandelt es sich immer mehr in ein CPU limit durch Überladung von einem CPU Kern(DX11 typisch).
Aber es ist noch viel schlimmer als sonst. Denn das Spiel lastet nicht nur einen Thread zu stark aus, es lastet gleichzeitig auch noch den zweiten Thread des gleichen CPU Kerns stark aus. Durch die Doppelbelastung sinken(mit 2133er Ram) gegen Ende die FPS auf ca 27.4......und fühlt sic noch viel schlechter an wegen den schlechten Frametimes.
Ansonsten werden durchaus viele Threads unterstützt...und wenn man dem Prozess nur einen Thread je Kern zuweist, steigen die FPS immerhin auf fast 30. In dem Bereich eine ordentliche prozentuale Steigerung.
Ram auf 3200 bringt dann über 35 FPS.

Und dann gibt es da noch die "Temperaturansicht" da werden die Gebäude und Bereiche mit einem Farbeffekt je nach Temperatur "erleuchtet".
Diese Ansicht ist wieder voll GPU limitiert und läuft grausig(zumindest auf meiner Vega).
Ich weiß nicht warum, aber Vega scheint mit so leuchtenden Effekten ein riesen Problem zu haben.
Man hat ja auch schon bei FFXV diese massiven Einbrüche bei den Partikeleffekten der Schwerter gesehen.
Das wurde per Patch leicht verbessert, verschwindet aber nur wenn man die Schatten auf low stellt.

Wenn in Frostpunk die gleichen Probleme in dieser Ansicht auftauchen und Hardware unboxed mit so einer Ansicht benchmarked, kann ich mir die 40% locker erklären.

Und auch ein CPU limit bei AMD, was bei Nvidia durch den Treiberhokuspokus abgewendet wird, könnte hier zu Grunde liegen.
----------------
Ich bin bei Hardware unboxed immer so zwiegespalten:freak:.

Ich habe schon den Eindruck, dass sie tendenziell Pro AMD sind. Sie bringen viel Contend dazu, zeigen Ryzen und Threadripper builds....Und ich finde es sehr positiv, wie viele Spiele sie testen.

Dabei habe ich aber den Eindruck, dass sie oft nicht genau hingucken.
Die Sachen nicht ordentlich hinterfragen und damit nicht genug in die Tiefe gehen.

erst heute gab es wieder ein Video zu DX11 vs.12 mit 1080 und Vega64.
[8spoiler]
[/spoiler]
Ein interessantes Thema und die Ergebnisse sind verwirrend.
Aber es wird nicht in die Tiefe geschaut..warum ist das jetzt so?
Da sollten sie mal genau die CPU Threads und GPU Auslastung beobachten, Gucken wie sich der GPU Takt verhält, ich habe bei Vega oft den Eindruck, das in den Tests die man sieht Vega im PT hängt, auch wenn sie schlecht ausgelastet wird, und wird sie besser ausgelastet, bringt es nur wenig, weil dann der Takt sinkt....sowas sollte man beobachten. und differenzieren...oder besser undervolten/PT hoch und den Takt begrenzen um zu sehen was dann passiert.

duskstalker schrieb:
und ruck zuck "suckt" auch die 7nm vega - und woran liegts?

an den einseitig optimierten spielen. man muss aber auch ehrlicherweise zugeben, dass es eigentlich nicht viel mehr auswahl gibt. dieser absolut ekelhafte parkour von HW Unboxed ist eine realistische abbildung von dem, was radeon gpus da draußen erwartet.
Somit ist es zwar eine traurige Situation, aber nicht direkt Schuld von HW unboxed.
Deren Schuld sehe ich eher darin einfach planlos drauf los zu testen.

Gamers Nexus hat auch seine Macken, aber da sieht man öfter den Willen zu lernen und genau hinzuschauen.

Bei HW unboxed bin ich schon 2-3 mal in der Kommentarfunktion mit denen aneinander geraten, weil ich genauereres hingucken oder bessere Tests angefragt habe;).

Beispiel V-sync im Video "How much frames do you need?" ...ist lang und kompliziert..
Sie zeigen wie V-sync funktioniert und sagen korrekterweise dazu, dass der input lag deutlich größer ist.

Aber warum ist er so viel größer? input lag tests von Battle(non)sense zeigen in einigen Spielen, das aus 52ms input lag ohne V-sync bei 70 FPS/60Hz monitor, durch aktivieren von V-sync 124ms werden...tripple buffer sogar 142ms.
Ich wollte wissen wie das sein kann. Aber die Antwort war "ist größer....haben wir doch gesagt!"
Aus dem Video geht aber nur hervor, dass ein Frame (double buffer) um maximal einen refresh zurückgehalten wird. Also um zusätzliche 16,7ms.
Dann wude gesagt, das dadurch die Engine durcheinander kommt und deshalb zusätzliche input lags kommen.
Aber wie können dadurch zusätzliche 50+ms entstehen?
Das würde bedeuten, dass nach einem gesendeten Frame der ganze Ablauf von vorne beginnt.
Also bis zum Senden des einen Frame, keine neueren Informationen verarbeitet wurden und komplett von vorne begonnen wird.
Das würde den riesen input lag erklären, aber wo kommen dann die Frames in der Zwischenzeit her? Es wird ja weiterhin alle 16,7ms ein Frame an den Monitor gesendet.
Wenn diese keine neuen Informationen enthalten, werden dann 7 gleiche Frames hintereinander dargestellt, bis der nächste Frame mit neuen Infos zum Monitor kommt?
Das kann nicht sein, es muss also schon irgendein Vorgang kontinuierlich Daten verarbeiten und weiterreichen, dabei aber massiv verzögern...und das nur wenn V-sync an ist...und nicht in jedem Spiel.
Ist V-sync also manchmal ein octa Buffer oder was ist da los?

Ich fand das THema interessant und wollte eigentlich nur, das da mal jemand mit den Budget eines Tech-Youtubers und einer 1000Hz Kamera genauer hinguckt.

Aber da scheint kein Interesse zu bestehen...man wird lieber unfreundlich und verdreht die Worte.

Aber eventuell bin ich wirklich dumm und sehe das offensichtliche nicht...die Antworten die ich da erhalten haben gingen jedenfalls am Kern des Problems vorbei.

Da bin ich dann oft enttäuscht....aber ich bin auch oft von CB enttäuscht....aber zumindest habe ich bei beiden nicht den Eindruck, dass sie gekauft sind, so wie ich das bei so mach anderen Reviews schmerzhaft vermute.
 
  • Gefällt mir
Reaktionen: duskstalker
duskstalker schrieb:
[...]
so eine zerschlagung passiert nicht automatisch, sobald jemand "aus versehen" monopolist wird. wer will nvidia nachweisen, dass sie amd "getötet" haben?

Doch, eine Regulierung (Zerschlagung oder unter Aufsicht stellen) passiert mehr oder weniger automatisch, sobald jemand Monopolist wird. Wie es dazu gekommen ist, ist völligst nebensächlich. Den Topf voll Gold hat es aus diesem Grund auch tatsächlich schon gegeben. Von Microsoft an Apple Ende der 90er.

https://www.n-tv.de/wirtschaft/Wie-Microsoft-Apple-rettete-article16229851.html

Die Regulierung von Monopolen erfolgt ausschließlich danach, ob diese offensichtliche Ineffizienzen zeigen (zu hohe Preise) und/oder aber kein fairer/fehlender Wettbewerb mehr stattfindet. Oder man Konkurenten den Marktzugang behindert/verhindert (Unternehmen ,X‘ kauft beispielsweise unnötiger Weise alle Rohstoffe zur Produktion eines Gutes ,Y’ auf).
Da man die GPU-Sparte aber relativ schlecht zerschlagen kann, würde das Unternehmen unter diesen Bedingungen vermutlich zumindest unter Aufsicht gestellt um vorgenanntes zu verhindern.

Jedenfalls, wie ein Monopolist ein Monopolist geworden ist, ist völlig unabhängig für die Beurteilung einer möglichen Regulierung. Kurz gesagt geht es nur um zwei Kritieren:

Ob das Unternehmen seine Marktmacht ausnutzt.
Oder ob kein Wettbewerb(er) mehr vorhanden ist.

Es reicht, wenn eines dieser Kriterien erfüllt ist.

@Baal Netbeck

Ich verstehe dein Problem nicht so ganz. Es geht nicht, oder nur zweitrangig darum, in welchem Rythmus die Frames gesendet werden. Die im übrigens nicht linear verlaufen, siehe Frametimes.

Bei Tripple Buffer liegt ein Frame mehr im Speicher. Ausgehend von zwei vorherigen also +50%.
Diese Bilder liegen im Speicher und enthalten kein Bewegungssignal des Steuergeräts (Maus/Pad). Du bewegst also die Maus, die Bilder im Buffer kennen diese Bewegung noch nicht. Nun werden diese abgearbeitet. Bei Tripple Buffer im schlimmsten Fall alle 3 Frames. Da keiner dieser drei Frames deine Eingabe verarbeitet hat (diese lagen ja schon zum Zeitpunkt der Eingabe im Buffer) verzögert sich somit der schon vorhandene Inputlag eben nochmal um 50%. Da auch diese 50% mehr im Buffer liegen (3 zu 2 Frames). Und jeder dieser Frames unter dem sowieso schon vorhanden Inputlag leidet.

Warum es sich bei dem Spiel verdreifacht... kA vermutlich ist die Engine einfach kacke :)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: duskstalker
So lange Huang bei nV und Su bei AMD ist, können die sich schon leiden.

Sind ja immerhin verwandt.

Aber ein Wechsel wäre evtl fatal.
 
dr. lele schrieb:
Weil AMD es schon mit einem riesigen Chip, HBM und massig Stromverbrauch nur gerade so schafft an eine GTX 1080 ran zu kommen... Ich hoffe ja auch, aber realistisch ist das nicht.
unrealistisch ist es um ehrlich zu sein auch nicht.

Bei einem Wechsel der Architektur hat man immer eine gewisse Wildcard. Und Navi soll ja oben drauf massive Ressourcen von Vega abgezogen haben. Das heißt natürlich nicht das Navi ein Erfolg im High-End Bereich wird, besonders nach der Ankündigung das man auf Mid-Range Karten abzielt, aber es soll eben nicht mehr eine weitere GCN Iteration werden.
 
Affenzahn schrieb:
Bitte für die langsamen: Was genau ist T&L?

Hardware Transform and Lighting

Eine der Grafikerrungenschaften der frühen 2000er. Im Grunde die Beleuchtungsberechnung bei (sich bewegenden) Objekten
 
  • Gefällt mir
Reaktionen: Affenzahn
Sun_set_1 schrieb:
Ich verstehe dein Problem nicht so ganz.
In den ursprünglichen 52ms ist ja alles drin....vom Klick bis zum Ausrichten der Pixel am Monitor.
Und es ist ein Durchschnittswert...die Frametimeschwankungen sollten also keine Rolle spielen.

Ich kann nicht genau sagen, was wie lange dauert, aber man kann sich ja angucken, was von V-sync beeinflusst wird und was nicht.
Sicherlich nicht das registrieren des Klicks und auch nicht das Ausrichten der Pixel.
Dazwischen liegt das verarbeiten des Klicks in der Spielengine, das Senden der Szene an die GPU durch API/Treiber und dann das rendern des Frame durch die GPU.
Zusätzlich dazu kommt das Warten auf ein vollständig gerendertes Bild und den nächsten refresh.

Jetzt vergrößert sich der input lag aber um weiter 72ms...und bei tripple buffer sogar um 90ms obwohl hier theoretisch der input lag wieder nicht so viel schlechter sein sollte als mit double buffer.

An welcher Stelle und warum kommen so heftige Verzögerungen in den Ablauf?
Sun_set_1 schrieb:
... kA vermutlich ist die Engine einfach kacke :)
Ja, aber das ist keine befriedigendere Antwort als die von HW unboxed, die im Grunde lautete "ist halt so".

Das mit den 50% ist nicht brauchbar. Guck dir das Video an, damit du weißt worüber ich rede:
Demnach ist der zusätzliche Delay durch das buffern kleiner als ein refresh Cycle solange die GPU die 60FPS halten kann.
Selbst wenn sie es nicht schafft, wäre der worst case eben zwei refreshs.(33ms) und in den Tests von Battle(non)sense schafft die GPU auch 300 FPS...wird also den refresh locker schaffen und war sogar für den Test ohne V-sync auf 70FPS limitiert. So ein limiter bringt ja ebenfalls input lags mit rein, und trotzdem sind es da nur 52ms gewesen. Mit 300FPS 44ms.

Es stimmt also etwas ganz gewaltig nicht an der Art wie CS GO V-sync benutzt....oder wie HW unboxed V-sync erklärt.
Denn es ist einfach unmöglich alle 16,7ms ein neues Bild zu senden und dabei alles um weitere 50+ms zu verzögern mit nur zwei Buffern.
Und der dritte Buffer sollte den input lag eigentlich nur maximal um weitere 16,7ms vergrößern, denn er ermöglicht der GPU direkt weiter zu rendern und ein weiters Bild fertig zu haben so dass beim refresh das einzige oder das vorletzte vollständige an den Monitor geht. Auch würde es kein stoppen des Informationsflusses geben. Die GPU fordert ja dauerhaft neue daten an und wartet nicht wie bei double buffer.

Ich hätte es gerne verstanden aber da bin ich wohl zu neugierig;)
 
  • Gefällt mir
Reaktionen: vascos
DonL_ schrieb:
Irgendwie müssen wir in anderen Welten gelebt haben in der Vergangenheit, die 7970 war Nvidia klar überlegen, aber aus Sicht des Nvidia Jüngers erscheinen die "historischen Fakten" etwas zu verschwimmen!
Meinst du wirklich die 7970??? Die war doch ein Stromfresser mit mehr Speicherbandbreite als die GTX 680, und dennoch nur minimal schneller. Architektonisch echt schlecht, als NV plötzich seine 256bit Chip für den High End Markt angeboten hat. AMD hat nur mit viel Power kontern können.
Also mal ehrlich, die 5870 war da nen ganz anderes Eisen, weil sie so nichts von den Grünen entgehen gesetzt bekam. Bei der 7970 war der 680 Chip doch schon längst draußen.
Oder du erklärst, was du meinst.:)

PS: NV Jünger bin ich schon lange nicht mehr, bin seit Jahren AMD Jünger, keine Ahnung wie du drauf kommst.:confused_alt:
 
Vielleicht solltest du nochmal einen Blick auf den Zeitstrahl werfen, als die 7970 erschienen ist, gab es noch keine GTX 680 und die GTX 580 hat sie praktisch vernichted.
Die GTX 680 war der Konter auf die 7970, mit dem sie locker mithalten konnte!
 
Nicht zu vergessen die 290X. Seinerzeit die Titan eingeholt.
Anschließend begann dann die Ryzen-Entwicklung. Ab dato kam von AMD in Sachen GPU nicht mehr allzu viel.

@Baal Netbeck

Morgen gerne nochmal ausführlicher. Aber meiner Meinung nach erklärt er es bei 6:10 sehr deutlich. Der minimale Inputlag ist immer 16,7ms bei VSynch. Schon ohne alle anderen Faktoren. Aber alleine die Zeit, die die CPU des Monitor/TV benötigt um das Bild physikalisch zu rendern, kann das Ganze auch mal schnell auf 50ms steigen lassen. Dabei ist die Refreshrate des Monitors egal. Der arbeitet mit 60 Frames. Aber halt leicht zeitversetzt.

Dann noch das Problem mit dem richtigen herauspicken der Frames, wenn die GPU 200fps berechnet. Das erklärt er ja zum Anfang schon. Der gegenteilige Effekt, als wenn die GPU unterhalb der Zielrate arbeitet.
Die Framerate auf 60fps zu kappen, ist nichts anderes als ein Software-VSynch, außer dass es dann keinen Buffer gibt der wartet um sich mit der Ausgabe des Monitors zu synchronisieren. Da fallen dann die angesprochenen 11,7ms weg. Die Grafikkarte pusht dann die Frames an das Gerät, ohne sich zu synchronisieren. Das minimiert den Inputlag, führt aber zum Tearing. Da der Bildprozessor des Monitor anfängt den neuen Frame auszugeben, bevor der alte abgeschlossen ist. Vereinfacht gesagt.

Das gilt dann auch für 200fps@60hz

Beispiel:

Bei VSynch an, gibt die Grafikkarte die Frames in der Reihenfolge heraus, die der Monitor darstellt. Sagen wir der Input wird bei Frame 7 in der Verarbeitungskette berechnet. Frame 1 ist dabei der, den Du gerade siehst.
(Für deine Werte hätte ich jetzt Frame 5 oder so nehmen müssen, lässt sich aber grade nicht so gut im Kopf rechnen ;) )

VSynch an:
(alle 16,7ms)
GPU Frame: 1,2,3,4...7
Monitor-Ausgabe: 1,2,3,4...7

VSynch aus:
(GPU, alle 2,5ms)
GPU-Frame:1,2,3,4,5,6,7
(Monitor, alle 16,7ms)
Monitor-Ausgabe: 1,7

Im ersten Beispiel erfolgt die Darstellung nach 7x16,7 - im Zweiten nach 1x16,7.

Effekt: Inputlag fast weg. Augenkrebs durch das Tearing.

Jetzt isses doch noch länger geworden :)
 
Zuletzt bearbeitet:
Edit: Dein später hinzugefügtes Beispiel habe ich jetzt erst gesehen...aber ich hatte es schon vorher widerlegt, denn dann würde der Monitor nie hinterherkommen die Frames darzustellen und es wüden sich immer mehr Frames ansammeln bis die Verzögerung gigantisch wird.
double buffer V-Sync hat ja aber immer nur bis zu zwei Frames im Buffer..keine 7...sonst würde es nicht "double" heißen und der Monitor hat keinen Buffer, der leitet das Signal gleich Zeile für Zeile auf das Display.


Sun_set_1 schrieb:
Aber meiner Meinung nach erklärt er es bei 6:10 sehr deutlich.
Er sagt der lag von input(Mausklick) zum display refresh(Ergebnis zeigt sich am Monitor, kann schnell mehr als 50ms sein.
Hat er ja auch recht mit, denn Battle(non)sense hat ja z.B. 52ms gemessen.
Da ist eben nicht nur die Zeit, die die GPU braucht drin, sondern auch das was die CPU berechnet und was der Monitor an Zeit braucht.

Mir geht es nicht darum das es insgesamt länger als 50ms dauern kann, das ist klar...mir geht es um den Unterschied von V-sync off zu on.

Das habe ich doch vorher schon extra unterstrichen:confused_alt:.
Sun_set_1 schrieb:
Der minimale Inputlag ist immer 16,7ms bei VSynch.
An 16,7 kann man nie ran kommen bei einem 60Hz Monitor. Dann müsste ja alles vorher in 0ms fertig sein.
Aber ja, damit ist es der minimal mögliche...nur irgendwie ist das nicht der Punkt weil es ja um den Unterschied geht.

Denn wenn man sich den Beispiel-Ablauf anguckt, dann stellt man fest, dass es mit V-sync an zu einer zusätzlichen Wartezeit von 11,7ms bei einer GPU die 200FPS schafft(16,7ms-5ms) kommt.

Laut der Erklärung im Video sind diese 11,7ms der Unterschied von V-sync off zu on.
Wenn der input lag vorher 52ms gewesen ist, sollten wir mit V-sync on bei 63,7ms landen. Oder wenn man versucht immer so gut wie möglich für den Angeklagten zu rechnen, eben 67,7ms(für den Fall das die GPU 100000FPS kann und den Frame sofort fertig hat.
Da fehlen immer noch einige zusätzliche ms bis man bei den gemessenen 124ms landet....wo diese auf der Strecke bleiben wird nicht beantwortet.
Sun_set_1 schrieb:
CPU des Monitor/TV benötigt um das Bild physikalisch zu rendern, kann das Ganze auch mal schnell auf 50ms steigen lassen
Wenn der Monitor länger bräuchte ein empfangenes Bild darzustellen als er für einen refresh Zeit hat, dann würden sich immer mehr Frames in einem nicht vorhandenen Zwischenspeicher des Monitors ansammeln.
Frame 1 kommt....nach 50ms ist der monitor fertig mit dem Bild und hat schon drei refreshs verpasst....also fängt er mit Frame 2 an, und sobald das dargestellt ist, liegen ja nur Frame 3, 4, 5 und 6 in der Warteschleife....:pcangry:
Mir ist klar, das die beworbenen 1-4ms der Herstellerangaben Blödsinn sind, aber sowas wie 12ms ist für einen 60Hz Monitor realistisch. Und diese ca 12ms sind ja da ob V-sync an oder aus ist......die ändern sich ja nicht, nur weil der Monitor vollständige und nicht zerrissene Bilder darstellen muss....ist dem völlig egal.

Sun_set_1 schrieb:
Dann noch das Problem mit dem richtigen herauspicken der Frames, wenn die GPU 200fps berechnet. Das erklärt er ja zum Anfang schon. Der gegenteilige Effek.....
Keine Ahnung was das "richtige herauspicken" meint aber der ganze Absatz hat nichts mit dem Phänomen zu tun.


Bei 7:33 geht er auf den Unterschied im Input lag ein....Er sagt, das bei 200FPS auf einem 144Hz Monitor der Unterschied 5-7ms betragen kann. Das stimmt mit dem überein, was die Theorie voraussagt:
Der refresh dauer fast 7ms, Wenn das Bild super schnell fertig gerendert ist, erhöht sich der input lag um bis zu 7ms.
Später macht er Fehler, wenn er über CS GO redet.
Bei 7:68 sagt er der (absolute)input lag wäre bestenfalls bei 2,5ms und mit V-sync on 16,7ms und mehr bei 60Hz.
Damit widerspricht er sich zu vorher, wo er von bis zu 7ms (unterschied)bei 144Hz geredet hat und dann macht er noch den Fehler diesen Unterschied als vollständigen input lag zu betrachten und zu behaupten der input lag könne beim Wechsel von 400FPS auf 60FPS auf das 6 fache ansteigen. Da rechnet er einfach die 16.7ms(60FPS) durch 2,5ms(400FPS) und kommt auf "6 mal mehr".
Ist aber in der Realität nicht wahr, denn wenn man von ca. 52ms(60FPS) vollständigem input lag auf 38ms(400FPS) kommen würde, wären das nur 27% besser und nicht 600%.

Und all diese Unterschiede die er beschreibt sind immer unter 16,7ms weil er sich an die Theorie hält, wie V-sync angeblich funktioniert.

Dann erklärt er Fast sync/enhanced sync, wo der input lag zwischen V-sync off und V-sync on liegt....ja ok.

Und dann wird es interessant, weil er noch eine Folie von AMD zeigt, wo offenbar Messdaten den input lag für Overwatch zeigen und ohne V-sync 72,7ms, mit fast sync 84,7ms und mit V-sync 128,8ms gemessen wurden.
Das ist ebenfalls weit entfernt von der theorie, wo die Basis von 72,7ms nur auf höchstens 87ms(V-sync on) hätte anwachsen dürfen.....scheinbar sind die Messwerte von Battlenonsense kein Einzelfall und an der Theorie stimmt etwas gewaltig nicht.

Bei der AMD Folie werden es nur 56ms in Overwatch mehr, bei Battle(non)sense 72ms mehr.
Und da gehen mir einfach die Ideen aus.
Funktioniert das Vorgehen der GPU mit front und backbuffer so wie in der Theorie, erklärt das ja nur bis zu 16,7ms. Es bleiben also noch grob 40ms in Overwatch und 56 in CS GO zu finden.
Es erscheint logisch, das eine GPU normalerweise weiß, wann sie grob mit dem rendern fertig sein wird, und schon frühzeitig nach neuen Daten fragt, damit sie gleich loslegen kann, sobald sie mit dem alten Frame fertig ist.
Wenn das bereitstellen der Daten durch die CPU länger braucht als die GPU zum rendern, kommen wir in ein CPU limit. Da die CPU offensichtlich mehr FPS kann, kann das bereitstellen eigentlich nur ca 5ms brauchen.
Das eigentliche Spiel sollte seinen eigenen Timer haben und nicht wie zu Pentium 1 Zeiten an die FPS gekoppelt sein...die Maus arbeitet unabhängig und der Monitor arbeitet unabhängig.

Wo kommt also jetzt die restliche Verzögerung her....ich habe nichtmal den Hauch einer Antwort gesehen.

Es reicht nichtmal, wenn man davon ausgeht, dass die GPU, die CPU schon für 2 Frames in die Zukunft nach Daten fragt, der einzelne Drawcall also schon länger dauert und dann die GPU schon am nächsten Frame arbeiten würde bevor der alte fertig ist.
Selbst dann dürfte sich der input lag nicht mal ansatzweise verdoppeln. Denn sonst wären wir entweder wieder in CPU oder GPU limit, was wir nicht sind.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Colindo
@Baal Netbeck

Wow, das ist viel zu lang für den Post.. sorry aber Du sprengst den Thread und das Topic gerade völligst.
Ich mach da jetzt mit, aber nur damit Du nicht denkst wieder allein gelassen zu werden.

Ich sehe das nicht als widerlegt an, denn das VSynch so wie im Beispiel funktioniert ist ein Fakt. Ich weiß nicht, wieso Du das als Theorie abstempelst, auch von HW Unboxed. Ist ja nicht so, als hätten sich alle Spiele und Grafikkartenhersteller der Welt verschworen. Weiterhin kommt AMD in der von Dir genannten Folie zu dem gleichen Schluss wie ich. Diese kannte ich nicht mal, trotzdem gleiche Meinung.. (vgl. VSynch aus, 60fps cut, VSynch an)

Was Du mit dem Aufstauen im Buffer und TV meinst, verstehe ich überhaupt nicht. Da staut sich nichts auf, sondern der Monitor arbeitet generell zeitversetzt. Wenn diese 50ms zum berechnen immer da sind, sind sie immer da. Der Monitor arbeitet trotzdem 60 Frames ab. Die 50ms liegen nicht zwischen zwei Frames, sondern generell an. Der Monitor liefert alle 16,7ms ein Bild. Aber alle diese Bilder haben den generellen Zeitversatz um 50ms. Wie zwei gleich schnelle Läufer, die einfach zeitversetzt starten. Der Abstand zwischen diesen wächst nicht, da sie gleich schnell rennen. Wenn der eine aber 0,5sek vorher startet, wird diese Differenz immer bestehen bleiben. Das nennt bei Monitoren Reaktionszeit und die kann bei TVs recht hoch ausfallen.

Der Buffer staut auch nicht! Wenn Du meinst das VSynch dann ja einfach Frames wegschmeißt, richtig. Genau das macht es. Bzw. berechnet diese gar nicht erst.

Ich weiß nicht, wieso du jetzt auf DrawCalls kommst. Das hat für Inputlag und VSynch an vs VSynch aus, wenig zu tun. Wie ich dir im Beispiel oben zeigte, wird ohne VSynch der Frame der die Bewegung enthält einfach viel früher ausgegeben. 5x16,7ms, nämlich 66.8ms.

Das Display refresh’t alle 16,7ms und holt sich dabei einen Frame ab. Bei VSynch, wurde dieser Frame seit mehreren ms im Buffer gehalten, bis der Monitor soweit ist. Ja in dem Moment berechnet Die Graka wirklich nichts. Bei VSynch aus, werden die Frames während diesen 16,7 ms laufend durch neue ersetzt. Dann holt der TV sich nicht den zweiten Frame nach dem ersten ab, sondern beispielsweise den siebten. So entsteht die Reihenfolge Frame 1, Frame 7.

Und nein, es sammeln sich keine Frames an, die werden einfach nicht mehr berechnet!
Und ja, mit VSYNCH OFF fehlen Dir Frames! Dadurch entsteht Tearing.
Die 7ms passen auch.. da 144Hz etwas mehr als doppelte von 60Hz sind, was bedeutet der Inputlag halbiert ca um diesen Faktorwert. Ergo irgendwas um 7ms.

Ich habe den Eindruck, ohne Dir zu nahe treten zu wollen, dass Du versuchst zu widerlegen anstatt konstruktiv zu reflektieren. Du sagtest doch selbst, du bist kein Experte. Dann glaube dem Experten in dem Video doch mal und versuche ihn zu verstehen, statt widerlegen zu müssen.

Und bitte, tu dem Threadersteller den Gefallen und mach dafür einen eigenen Thread auf. Da werden auch mehrere Leute antworten,
 
Zuletzt bearbeitet:
KCX schrieb:
"PC Gaming liegt im Sterben."
Wusste gar nicht, was ich hier mit dem Satz auslöse...
Ein dummes Foto uns schon schlägt ganz Deutschland... naja, lassen wir das.
Wer hätte denn auch denken können dass der Satz in nem PC Forum Reaktionen auslöst.

@Inxession echt? die sind verwandt? lol.

@Baal Netbeck
HW Unboxed ist keine Quelle der ich ungeprüft trauen würde. Vor allem würde ich damit keine Argumente untermauern. Das ist irgendein Dude der semihobbymäßig Pseudobenchmarks in seinem Keller macht. Von wissenschaftlichem Arbeiten kann man da beim besten Willen nicht reden.
 
Affenzahn schrieb:
echt? die sind verwandt? lol..

Laut Wikipedia stehen Sie in einem Onkel/Nichte Verhältnis ;)

Schon kurios.
 
  • Gefällt mir
Reaktionen: Colindo
Ich denke ich habe jetzt hier:
https://misiegaming.wordpress.com/2...astsync-buffer-reaktionszeit-renderahead-lag/
Eine einleuchtende Antwort gefunden.

So kommt es rein durch V-sync nur zu der schon vorher bekannten input Verzögerung von 0-16ms(bei 60Hz).
Die Spielengine kann aber bei aktivem V-sync eine Warteschlange der Daten für die CPU einrichten.
So springt diese dann z.B. von 1 auf 4 um sicher zu stellen, dass die GPU immer sicher Daten zur Hand hat, wenn sie nach der Wartezeit auf den refresh, welche braucht.

Es gibt Möglichkeiten, diese Wartezeit durch geschicktes setzen von Framelimitern wieder auf 1 zu drücken, aber es kommt immer auf das Spiel und seine Umsetzung zu V-sync sowie die interne Taktung der Engine an...läuft die nur mit 30 Hz, hat man eine andere Situation.

Daher ist es von Spiel zu Spiel anders.
Der misiegaming Artikel nutzt nur eine etwas fragwürdige Messmethode, die die Reaktionszeit des Testers mit einbezieht, kommt aber auf einen zusätzlichen durchschnittlichen Delay von 66ms durch V-sync in GS Go. Battlenonsense kam auf zusätzliche 72ms. Da würde ich von Messtoleranz reden.
Das entspricht ungefär 3-4 weiteren Framedaten(Drawcalls), die von der CPU zurückgehalten werden, und um die daher der input lag vergrößert wird.

Es wäre also durchaus möglich den zusätzlichen V-sync input lag auf ein minimum zu verzögern, dann wird es jedoch öfter dazu kommen, dass das refresh intervall nicht geschafft wird und ein Frame doppelt dargestellt werden muss.
V-sync opfert hier also absichtlich den guten input lag für eine flüssigere Bildwiedergabe.
Wie stark, das Opfer ist, liegt scheinbar in der Hand der Spieleentwickler und bestätigt mich darin V-sync zu meiden.



Um nochmal auf das eigentliche Thema zurück zu kommen:
Nvidia hat ja jetzt Folien veröffentlicht, wo die neue Serie ja doch um sie 50% schneller ein soll als die alte.
Es wird vermutet, dass sie es geschafft haben auch ohne implementierung im Spiel so eine art asynchronus compute nutzen zu können.
Das wäre natürlich ziemlich cool....und ziemlich schade, das AMD das bis jetzt nicht geschafft hat.
 
  • Gefällt mir
Reaktionen: Colindo
Nvidia hat einfach viel stärker Entwickler-Lobbyismus betrieben und wie die Liste der unterstützten Games in der Turing Präsi zeigt geht es munter weiter. AMD kann da nicht mithalten egal wie viel Rohleistung vorhanden ist.

Ich finde es sehr bedenklich wie wenig dieses Geschätsgebaren von Nvidia durch die Fachpresse beleuchtet wird.

Wird man in Zukunft überhaupt noch Benchparkours finden welche neutral sind?
 
Zurück
Oben