AMD Radeon minimale Frequenz erhöhen

hatt sogar meine 3080 Ti Holoblack gegen eine 6900XT Ref. getauscht ;D für mich hat die 6900T besser funktioniert.
 
Warframe...mein Fehler! :daumen:

Borderlands 1?


So Ruckler in Zusammenhang mit Effekten hatte ich mal in einer FinalFantasy Demo....da waren es die Nvidia-Effekte, die nicht sauber mit der AMD Hardware laufen wollten...nur komplettes abschalten hat geholfen.

Es war eh nicht mein Fall, aber sowas ist natürlich ärgerlich.

Es kommt mir aber schon komisch vor, dass du so extreme Probleme, in beliebten Spielen beschreibst.
Es haben inzwischen viele Spieler AMD Grafikkarten und wenn das ein normales Verhalten wäre, würde das größere Wellen schlagen.

Die Ruckler die bei meiner Radeon VII den Energiesparmodus tiggern sind ja auch mit der Vega vorhanden gewesen...nur weniger stark ausgeprägt.
Und da habe ich schnell Berichte von anderen gefunden, denen das auch aufgefallen war und es wurde ja auch im Spiel gepatched.

So wie du das beschreibst, klingt es ja dramatisch und nicht nach einem typischen Problem.
 
Nene, Borderlands 3. Egal bei welcher Grafikeinstellung.
Hab jetzt aber die Rolle Rückwärts gemacht.

Muss ich halt mit meiner 1070 Ti rumgammeln, bis es sich am Markt etwas entspannt hat.

Bin ja auch bissel selbst dran Schuld. Hatte vorher ne 3070 und hab die äußerst gewinnbringend verkauft. Nun sitzt ich halt mit einer älteren Karte hier. Was solls.

Danke aber an alle.

Hab ebend nochmal geprüft: Frametimes mit der 1070Ti fast dreimal so hoch sowie FPS nur halb so viel und dennoch ist das Bild "flüssiger".
 
Hattest vor dem Wechsel auf die Rx6900 mit DDU die alten Treiber der 3070 entfernt?
 
  • Gefällt mir
Reaktionen: VirusA87
also bei mir keine drops oder so :-|
 

Anhänge

  • borderlands1.jpg
    borderlands1.jpg
    40,5 KB · Aufrufe: 154
Snowknight schrieb:
Muss ich halt mit meiner 1070 Ti rumgammeln, bis es sich am Markt etwas entspannt hat.
wofür?
Erstmal erzählst du uns welche Kabel du genommen hast um die 6900XT anzuschließen dein Netzteil ist zwar ein Singlerail aber enermax hat nicht die besten kabel.

Dann erzählst du uns ob du dein Windows 10 neu installiert hast oder wenigstens DDU verwendet hast um die Nvidia Treiber runter zu bekommen.

Und drittens erzählst du uns welchen Chipsatz Treiber du installiert hast und von welcher Seite.


Weil für mich sieht das ganz klar danach aus das du die Nvidia Treiber nicht deinstalliert hast! Sondern einfach Windows 10 so gelassen hast und die 6900XT reingepackt und Treiber drauf geschmissen.


und als letztes Taktest du deinen Ram mal auf 3600Mhz, ist das vom Werk aus ein 4000er Kit oder hast du das so hoch geprügelt?

und man deckelt keine 115 FPS bei 120 Hz vom Monitor dann muss Freesync Bilder kopieren um auf 120 FPS zu kommen. Wenn dann deckelt man die FPS bei 125
 
Zuletzt bearbeitet:
MBAN88 schrieb:
die alten Treiber der 3070 entfernt?
Muss man eigentlich nicht....keine AMD Karte benutzt plötzlich den Nvidia Treiber.

Ich habe da schon munter hin und hergetauscht und nie Probleme gehabt.
dSi schrieb:
und man deckelt keine 115 FPS bei 120 Hz vom Monitor dann muss Freesync Bilder kopieren um auf 120 FPS zu kommen. Wenn dann deckelt man die FPS bei 125
Einfach nein!

Freesync passt ja die Monitorfrequenz an, damit es genau passt.

125 FPS sind "zu viel" für einen 120Hz Monitor....da deaktivert sich Freesync und es greift entweder V-sync, enhanced sync, oder es gibt wieder Tearing.

Unterhalb der Monitor Frequenz zu deckeln ist der richtige Weg, wenn Freesync benutzt werden soll.
Ich würde jedoch etwas mehr Abstand zur maximalen Monitorfrequenz lassen, da es sonst trotzdem zu Tearing kommen kann.

Snowknight schrieb:
Nene, Borderlands 3. Egal bei welcher Grafikeinstellung.
Ich habe es auch mal ausprobiert.
Auf dem älteren System mit Ryzen 1800X und Vega64.
Es ist definitiv von Rucklern durchsetzt und ich konnte keine Lösung finden.

Ich habe die FPS extern und mit dem spielinternen Limiter begrenzt und natürlich unlimitiert getestet, V-sync an und aus, Vollbild und ramenlos, Dx11 und DX12, CPU und GPU Limit gewechselt, die Grafikkarte zurückgesetzt und undervolted, Antilag ausprobiert....

Die größten Unterschiede hatte ich mit den ändern der Grafiksettings....wenn wirklich alles aus ist, sind die Ruckler seltener und kleiner...aber nicht verschwunden...die Materialeigenschaften über "mittel" zu heben scheint einen großen Nachteil zu bringen, aber es ist schwer zu sagen, da ich die Ruckler nicht mit einer Option zuverlässig verbinden kann.
Manchmal ist es regelmäßig....dann kommt lange nix und dann viele in kurzem Anstand....

Es scheinen keine Nachladeruckler zu sein, da sich zeitgleich keine erhöhte Laufwerksauslastung ergibt.
Weder auf dem Laufwerk wo das Spiel installiert ist, noch auf C, wo die Auslagerungsdatei liegt.



60FPS Limiter, ohne Antilag und mit V-sync kaschieren einige der Peaks im Fremetimeverlauf effektiv.
Der Input lag ist sicherlich deutlich größer, aber wenn das Afterburner Overlay im Framtimeverlauf einen richtig großen Peak zeigt, dann spürt man den fast nie.

Hier sieht die Anzeige dramatisch aus, aber es wird von der Warteschlange an Drawcalls aufgefangen und zeigt sich nicht auf dem Monitor.

Aber ander Ruckler zeigen sich weiterhin.....

Trotzdem....
Ich habe das Spiel heute zum ersten Mal gespielt, und ich fand es durchaus spielbar....trotz eher schlechter Hardware.

Snowknight schrieb:
Muss ich halt mit meiner 1070 Ti rumgammeln, bis es sich am Markt etwas entspannt hat.
So sieht es aus.
Ich mag Nvidia nicht, da sie auf proprietären Techniken setzen, und diese in der Vergangenheit auch "zufällig" einen größeren Nachteil für den Konkurrenten bedeutet haben als nötig.
Der übertriebene Einsatz von Tesselationsstufen, als Nvidia noch mehr Tesslationsleistung hatte als AMD.
Das die physx effekte in Mafia 2 auf einer CPU berechnet deutlich schlechter laufen ist klar, aber warum läuft es nur auf einem CPU Kern, wenn das Spiel eigentlich multithreading beherscht?
Gameworks Effekte, die auf AMD Grafikkarten ruckeln, während TressFX von AMD auf beiden Seiten gut läuft.

Bei G-sync haben sie es versucht und den Kampf fast verloren....und dann haben sie versucht "Freesync zu kapern", indem sie den offenen "adaptive sync" Standard unterstützen, aber ihn "Gsync compatible" nennen und komischerweise war dann bei ganz vielen der als "compatible" verifizierten Monitore jeder Hinweis auf Freesnc verschwunden, obwohl die Monitore natürlich weiterhin freesync können....stattdessen glaubt der unbedarfte Kunde, der Monitor könnte nur mit Nvidia die variable refresh rate nutzen, da sie nur G-sync lesen und den wichtigen Zusatz "compatible" nicht für wichtig halten.

Auch da hat sich das Blatt gewendet und freesync wird wieder erwähnt, aber die Versuche, ihre Marktmacht auszunutzen, sind nicht sympatisch.

Die Situation der Kunden ist eine andere Sache.
Nvidia ist halt der Marktführer....gerade kleinere Studios werden in erster Linie auf Nvidia optimieren....können leicht überzeugt werden von Nvidia "Produktionshilfe" zu erhalten.
Und wenn AMD etwas unbestreitbar gutes entwickelt, ist das frei verfügbar, und Nvidia Kunden profitieren trotzden davon.

Mit AMDs Grafikkarten hat man als Kunde ein eher durchwachsenes Erlebnis.
Manche Spiele laufen wirklich gut...gerade gut optimierte DX12 nd Vulkan Titel.
Aber wenn es Probleme gibt, wie mit der Unreal Engine 4, dann ist das den Entwickler eher egal...ist ja nur AMD.

n0ti schrieb:
also bei mir keine drops oder so :-|
Was ist das für ein Overlay?
Und du hast gar keine Frametimepeaks?
Was machs du anders als wir?
 
jeder Monitor unter 500 Euro hat derzeit mehr Tearing und Motion Blur als deaktiviertes FreeSync mit konstanten FPS hätte.

Freesync bedeutet immer eine verzögerung und Tearing entsteht nur wenn die FPS zu sehr schwanken, das wird er definitiv nicht haben mit einer 6900XT :D

wenn der Monitor 120 Hz hat dann sollte er auf 125 FPS gehen damit Free Sync erstmal deaktiviert ist, in dem moment wenn die FPS unter 120 FPS fallen wird automatisch Freesync aktiviert.

Gerade in Competitiv Shootern ist es sehr wichtig jede milisekunde rauszuholen.

ich würde deine aussage verstehen wenn die FPS von 115 in den Keller gehen auf zum Beispiel 60 FPS, aber doch nicht mit einer 6900XT :freak:

siehst du hier irgendein Tearing durch FPS Drops?

man hat kein Tearing wenn die FPS relativ konstant sind, deswegen sollte man die FPS deckeln auf die minimum FPS die in Gefechten noch gehalten werden, zum Beispiel CS Go wenn 300 FPS max sind, die FPS jedoch in Feuergefechten auf 160 FPS droppen dann sollte man die FPS-max auf 160 deckeln.



Und das die Nvidia Treiber keinen Einfluss haben auf AMD Karten oder umgekehrt ist absoluter Käse.

Ich hatte jetzt schon eine RTX 3060 (referenz) eine RTX 3080 (referenz) sowie eine XFX 6900XT Merc 319 Black und zum jetzigen zeitpunkt eine XFX 6900XT Merc Zero EKWB und bei jeder Karte gab es einflüsse Seitens der jeweils anderen Treiber. Den 2000er RTX und 5000er RX war das egal aber nicht den aktuellen Karten die sind da sehr empfindlich. Ich musste jedesmal Windows vernünftig mit Formatierung neu Installieren damit die Karten erste Sahne laufen.


hier könnt Ihr nochmal vergleichen, welches Bild besser läuft:




Ich schreibs nochmal FPS Tearing entsteht nur bei extremen FPS schwankungen und nicht weil man 5 FPS darüber ist!

Wenn das der Fall wäre so wie du es beschreibst dann hätte Ich ja extrem Tearing mit meinem Zowie Monitor und aktiven DyAC+ denn DyAC+ kann man nur nutzen wenn Freesync deaktiviert ist bzw Freesync deaktiviert sich automatisch sobald man DYAC+ aktiviert vom Monitor.

Ergänzung ()

und nochwas in Competitiv Shootern ist allgemin bekannt das man das Weapon Recoil besser mit hohen FPS kontrollieren kann.

Ich versuch das mal mit einer einfachen Rechnung aufzuzeigen.

Wenn man einen 60 Hz Monitor hat und 60 FPS bekommt man mit jedem Frame das volle Recoil zu spüren.
Wenn man einen 60 Hz Monitor hat und 180 FPS hat (konstant wohl gemerkt!) dann sieht man nur jedem 3 Frame das bedeutet man merkt weniger Recoil und das Recoil ist Kontrollierbarer.

der Nachteil hier ist ganz klar das man Gegner nicht mehr Flüssig um eine Hausecke kommen sieht sondern Sie stehen auf einmal vor einen.

Ähnlich ist es mit einer höheren Bildwiderholrate vom Monitor (Hz) durch mehr Bilder pro Sekunde wird der Recoil den man merkt geringer weil der Recoil in mehr Sequenzen unterteilt wird.

Blöd geesagt wenn eine Waffe 60cm hochziehen würde bis das Magazin leer ist wären das bei einem 60Hz Monitor jedesmal 1 cm auf die man reagieren muss, bei 120 Hz sind es nur noch 0,5 cm Schritte und bei 240 Hz dann nur noch 0,25 cm Schritte.


ähnlich ist es mit DyAC+ die Bilder werden dadurch nur noch schneller umgesetzt was bei Waffen mit erst schon wenig Recoil einem Norecoil gleicht, man muss das selbst ausprobiert haben um zu merken wie groß der unterschied mit und ohne DyAC+ ist.

https://zowie.benq.eu/de-de/what-is-dyac.html


und warum sollte man mit FidelityFX so seine FPS Pushen können wenn man damit Tearing hätte?
Es stimmt einfach nicht, so wie du es sagst wäre es nur bei extremen FPS schwankungen



und das wichtigste, für was genau soll Ich nochmal 1000 Euro mehr ausgeben um eine RTX 3090 zu kaufen? Bei einigen Modellen sind es sogar 1500 Euro mehr im gegensatz zu einer 6900XT.


wegen Raytracing in Cyberpunk 2077?



Aber wir schweifen vom Thema ab!

der TE soll erstmal auf meine Fragen Antworten damit man Ihn helfen kann, es gibt nur 2 möglichkeiten. Entweder die Treiber oder der hoch geprügelte Arbeitsspeicher.
 
Zuletzt bearbeitet:
Troll?

Sehr viel geschrieben.... Mit viel Selbstvertrauen, aber so wie ich das überflogen habe ist praktisch jede Aussage falsch.

Wenn ich Zeit habe versucht ich das Mal zu verstehen, aber ich denke eher, dass ich hier verarscht werden soll.
 
  • Gefällt mir
Reaktionen: Azghul0815
ich will dich verarschen?

Hier steht es nochmal schwarz auf weiss bei Minute 11:42 !


Das Testsystem wird zuvor auch aufgelistet er hat einen 144 Hz Monitor

siehst du hier bei No-Sync irgendwelches Tearing sobald die FPS oberhalb der 144 Hz sind ??? Ne also.....

Tearing hat man nur wenn die FPS unterhalb der Monitorwiderholfrequenz droppen was man mit FreeSync oder G Sync oder V Sync verhindern kann indem Bilder hinzukopiert werden.....

 
Baal Netbeck schrieb:
Troll?

Sehr viel geschrieben.... Mit viel Selbstvertrauen, aber so wie ich das überflogen habe ist praktisch jede Aussage falsch.

Wenn ich Zeit habe versucht ich das Mal zu verstehen, aber ich denke eher, dass ich hier verarscht werden soll.
Geh einfach nicht auf ihn ein, hält sich für den größten und hat keine Ahnung und lässt sich auch nicht vom Gegenteil überzeugen bzw. reagiert nicht mehr auf Argumente, wenn er merkt er ist im Unrecht. Wenn man einen Beitrag mit etlichen Youtube Videos sieht, weiß man eigtl schon Bescheid, wenn man im Forum etwas aktiver ist.
 
  • Gefällt mir
Reaktionen: Azghul0815 und Baal Netbeck
Kurze Frage an den Threadersteller - hast Du die 6900xt schon zurückgeschickt?

Ich hatte Mikroruckler bei BL3 - konnte man recht gut im Benchmark feststellen - da hats alle paar Sekunden kurz gestockt. Habe ich bei mir durch das deaktivieren des HPET eliminieren können.

Gruss
 
Luuuc22 schrieb:
Wenn man einen Beitrag mit etlichen Youtube Videos sieht, weiß man eigtl schon Bescheid
Wenn es vertauenswürdige Videos sind, bin ich da nicht abgeneigt.
Denn manche Videos zeigen Testmethoden und Qualität, die man von massentauglichen Veröffentlichungen normalerweise nicht bekommt.

Aber 99% sind halt schlecht, sinnlos oder sogar höchst dubios.

Die Videos von BattleNonSense sind ja sogar sehr gut gemacht und informativ.
Einiges ist halt von 2016 und inzwischen nicht mehr up to Date, aber ich würde den Videos keine Fehler unterstellen.

Aber ich kann die meisten seiner Aussagen nicht in den Videos finden.
Das passt nicht zusammen.

..ich fürchte ich bin getriggert und muss doch auf ihn eingehen. :(
 
Zuletzt bearbeitet:
dSi schrieb:
jeder Monitor unter 500 Euro hat derzeit mehr Tearing und Motion Blur als deaktiviertes FreeSync mit konstanten FPS hätte.
Tearing ist unabhängig vom verwendeten Monitor. Auch ein 3000€ Display hat Tearing, wenn die Bilder die es erhält nicht synchron mit dem Refresh sind.

Motion Blur.....Das ist nunmal der Nachteil von TFT Technik.
Das haben Monitore unabhängig vom Preis.
Manche teure VA Panel sogar mehr, als ein billiges TN Panel.

Das kann man mit einem höheren Overdrive bekämpfen, aber man bekommt im Gegenzug Overshoot, was dann auch nicht schön ist.

Und ein großer Teil davon ist gar nicht die Schuld des Displays, sondern liegt in der Wahrnehmung durch uns Menschen.
Da hilft dann enorm ein Display mit Backlight strobing /Black image insertion
Leider scheint das fast nie mit den variablem refresh Raten zu funktionieren.
dSi schrieb:
Freesync bedeutet immer eine verzögerung und Tearing entsteht nur wenn die FPS zu sehr schwanken, das wird er definitiv nicht haben mit einer 6900XT
Ich weiß nicht, ob dir klar ist, was Tearing ist und wie es entsteht.
Aber es tritt genauso bei perfekten Frametimes auf.

Und starke Schwankungen in den Frametimes(Ruckler) sind ja das, was das eigentliche Thema dieses Threads war....und zwar genau mit einer 6900XT.
dSi schrieb:
wenn der Monitor 120 Hz hat dann sollte er auf 125 FPS gehen damit Free Sync erstmal deaktiviert ist, in dem moment wenn die FPS unter 120 FPS fallen wird automatisch Freesync aktiviert.
Warum sollte er bei 125FPS Tearing ertragen, wenn er bei 115 FPS ohne Tearing spielen kann?
Die 10 FPS machen ganz bestimmt keinen anderen Unterschied.
dSi schrieb:
siehst du hier irgendein Tearing durch FPS Drops?
Da Tearing nicht durch "FPS Drops" auftritt, sondern einfach dann wenn die Bildausgabe nicht synchron erfolgt, sehe ich hier definitv Tearing.

Guck das Video...achte auf die Kanten..z.B. an den Ästen...und vergleiche das mit dem synchroniserten Teil danach.
Ich sehe da eindeutig wie die Kanten flimmern, und synchronisert nicht mehr.
So ein Effekt nimmt aber auch durch die Youtube Konvertierung ab. Das Bild wird komprimiert und die Klarheit der Kanten geht verloren.
Wenn ich Overwatch in echt benutze, dann fallen die Unterschiede größer aus.

Ich stimme dir zu, dass es im Alltag (und mit einem 144Hz Monitor) oft, praktisch nicht auffällt. :daumen:
Overwatch ist ein extremes Beispiel, mit vielen klaren Kanten und schnellen Bewegungen...oft seitlich.

Spiele ich ein Fantasy-RPG, ist Tearing(zumindest bei 144Hz) kein Problem für micht.
Das fällt bei der Szene und dem Tempo dann kaum auf.
Aber warum sollte ich es überhaupt haben, wenn ich es auch ohne Nachteile verhindern kann?

dSi schrieb:
man hat kein Tearing wenn die FPS relativ konstant sind, deswegen sollte man die FPS deckeln auf die minimum FPS die in Gefechten noch gehalten werden, zum Beispiel CS Go wenn 300 FPS max sind, die FPS jedoch in Feuergefechten auf 160 FPS droppen dann sollte man die FPS-max auf 160 deckeln.
Siehe oben....Man hat auch Tearing wenn die FPS konstant sind....stell mal den Monitor auf 60Hz und locke die FPS auf 60Hz! Aua. Jedes Bild hat dann Tearing und die Position des Tearing ändert sich auch kaum.
Bewegt man sich, hat man dann eine horizontale Linie am Bildschirm, die bei jeder Bewegung stört.

Daher ist auch dein Tipp mit den 160FPS falsch.
Bei 144Hz und 300 FPS hast du weniger Tearing als bei 160FPS.
Wenn die FPS auf 160 fallen, dann fallen sie zwar, aber immerhin hast du die 300FPS wärend dem restlichen Spielerlebnis.

Und wenn dir jede Millisekunde input lag wichtig ist, dann solltest du definitiv die 300FPS probieren.
dSi schrieb:
Und das die Nvidia Treiber keinen Einfluss haben auf AMD Karten oder umgekehrt ist absoluter Käse.
Ich bin durchaus in der Lage reproduzierbare Benchmarks zu machen und ich habe das in beide Richtungen ausprobiert, als ich von einer Nvidia auf eine AMD Grafikkarte gewechselt bin.
Erst habe ich die AMD Karte eingebaut, ohne den Nvidia Treiber zu entfernen.
AMD Treiber installiert....Keine Probleme.
Dann habe ich die Karten wieder zurückgetauscht und die Test nochmal gemacht.
Wieder keine Probleme und die gleiche Leistung wie im Anfangszustand, wo ich noch keine AMD Karte hatte.

Ich habe dann sogar Windows 10 mit der AMD Karte installiert....gleiche Leistung wie vorher.
Und ich habe dann wieder dei Nvidia Karte eingebaut und den Nvidia Treiber istalliert.

Wieder beide Treiber gleichzeitig auf dem System...munter die Karten für Vergleichstests getauscht und absolut keine Wechselwirkungen.

Mir ist natürlich klar, dass das nur meine Einzelerfahrung ist.
Daraus kann ich nicht ableiten, dass niemand anderes Probleme haben kann, aber ich kann daraus ableiten, dass es nicht zwangsläufig ein Problem ist.

Kannst du mir ein Beispiel nennen, was ein möglicher Einfluss wäre?
dSi schrieb:
hier könnt Ihr nochmal vergleichen, welches Bild besser läuft:
Dieses Video ist im Vergleich zu den BattleNonSense Videos leider mit ein paar Fehlern in den Animationen zum Bildaufbau gespickt.
Daher glaube ich auch nicht an die Animationen von den Windmühlen usw.

Und daher ist mir auch egal, wie da das Bild läuft.
dSi schrieb:
Wenn das der Fall wäre so wie du es beschreibst dann hätte Ich ja extrem Tearing mit meinem Zowie Monitor und aktiven DyAC+ denn DyAC+ kann man nur nutzen wenn Freesync deaktiviert ist bzw Freesync deaktiviert sich automatisch sobald man DYAC+ aktiviert vom Monitor.
Ich habe mir das Werbewideo zu DyAC angeguckt.....netter Name, aber es scheinbar einfach Backlight Strobing.

Was heist einfach....backlight strobing hat einen gigantischen Einfluss auf die Wahrnehmung von Bewegungen am TFT Monitor. :)

Ich habe keinen solchen Monitor...keine Ahnung wo und ob Freesync da deaktiviert wird.
Technisch ist es schwiering eine variable refresh rate, mit backlight strobing zu verbinden, da das Hintergrundlicht nicht nur passend ausgeschaltet werden muss, sondern auch rechtzeitig wieder angehen muss.

Mit Freesync wartet der Monitor darauf, dass die GPU das nächste Bild fertig hat, und das Signal gibt, dass der front buffer ausgelesen werden kann.
Würde das Licht erst dann wieder aktiviert, kann es zu spät sein für den oberen Bereich des Displays.

Und die Helligkeit des Displays wäre stark von den FPS abhängig.

Warum du da kein Tearing siehst...kann ich dir nicht sagen.
Ich habe ja den Eindruck, dass du nicht weißt was es ist, und daher kann es sein, dass du nicht darauf achtest.
Bei 144Hz oder sogar mehr, ist Tearing auch kein großes Problem.....je nach Spiel ist es da kaum zu sehen.
Oder freesync wird durch enhanced sync(das fast sync von AMD) ersetzt?
Oder gar V-sync?

Ich sitze nicht vor deinem Monitor. ;)

dSi schrieb:
Wenn man einen 60 Hz Monitor hat und 60 FPS bekommt man mit jedem Frame das volle Recoil zu spüren.
Wenn man einen 60 Hz Monitor hat und 180 FPS hat (konstant wohl gemerkt!) dann sieht man nur jedem 3 Frame das bedeutet man merkt weniger Recoil und das Recoil ist Kontrollierbarer.
Bei 180 FPS(ich nehme mal an ohne enhanced sync oder fast sync), siehst du nicht nur jeden 3. GPU-Frame , sondern du siehst bei dem Monitor-Frame, untereinander die 3 GPU-Frames...natürlich immer nur ein drittel der Frames, gesetzt den Fall, dass der erste Frame perfekt mit dem Monitor Refresh eingesetzt hat....sonst siehst du vermutlich 4 Frames auf dem Monitor, da ganz oben noch Reste vom vorangegangenen GPU-Frame dargestellt werden.

Und natürlich siehst du dann eher aktuelle Informationen auf dem Schirm, als mit 60 FPS.
Aber da du drei bis vier verschieden GpU-Frames auf dem Monitor aneinandergrenzen, hast du Tearing.....das ist Tearing!

Und ja...mit Tearing hat man den potentiel geringsten input Lag.
Das hat auch keiner bestritten, aber Snowknight hat ja gar nicht über input Lag geklagt.
Er hat auch nicht über Motion Blur geklagt, oder über Tearing.
Er hat über Ruckler(Frametimepeaks) in zwei Spielen geklagt, die er mit einer Nvidia Karte nicht erlebt hat.

dSi schrieb:
der Nachteil hier ist ganz klar das man Gegner nicht mehr Flüssig um eine Hausecke kommen sieht sondern Sie stehen auf einmal vor einen.
Das wäre in der Tat ein Nachteil.
dSi schrieb:
ähnlich ist es mit DyAC+ die Bilder werden dadurch nur noch schneller umgesetzt was bei Waffen mit erst schon wenig Recoil einem Norecoil gleicht, man muss das selbst ausprobiert haben um zu merken wie groß der unterschied mit und ohne DyAC+ ist.
DyAC setzt die Bilder nicht schneller um.

Es verbessert deine Wahrnehmung von Bewegtbildern auf TFT Technik.
Wenn dein Auge/Gehirn einem Objekt(z.B. Gegner) folgen möchte, um ihn anzuvisieren, dann wird es von einem TFT Monitor verwirrt.

Gehen wir mal von synchroniserten Bildern aus, da es sonst zu kompliziert wird, wenn der Gegner auch noch in der Mitte zerschnitten sein kann.

Der Gegner wird vom Auge/Gehirn an Position A gesichtet und ist dann in Position B zu sehen...also im nächsten Frame....der Gegner hat sich bewegt, oder du hast die Kamera geschwenkt.

Und das Auge/Gehirn möchte das als eine Bewegung interpretieren, der sie mit dem Auge folgen kann.
Aber während sich das Auge in Bewegung setzt, um die nächste geschätzte Position zu erreichen, stellt es fest, dass sich der Gegner gar nicht bewegt....der Gegner bleibt noch für die nächsten 16ms bei Position B stehen.
Das ist verwirrend, und das Auge geht wieder zurück zu Position B....dann kommt der nächste Refresh und der Gegner verschwindet und teleportiert sich zu Position C...Das Auge möchte sich über Position C hinwegbewegen um ihm zu folgen, aber wieder gefriert er für 16ms bei Position C, um dann zu Position D zu teleportieren.

Daher kann das Auge nicht richtig folgen und den Gegner nie richtig fokusieren...es sei denn die Bewegung ist ausreichend langsam.

Anders mit Backlight strobing...hier sieht das Auge den Gegner von Position A nach B springen, aber dazwischen war er verschwunden....und auch jetzt verschwindet er sofort wieder und taucht erst bei Position C wieder auf.
Mit diesem Verhalten kann das Auge/Gehirn etwas anfangen.:)
Es kann die Bewegung extrapolieren und bewegt sich über die Position C, schon vorsorglich auf Position D....und hier erscheint er auch wieder passend und das Auge hat ihn direkt scharfgestellt.
...usw...
Daher der enorme Gewinn an wahrgenommener Schärfe....leichteres anvisieren von Gegnern ...usw.

Ich kann mir gut vorstellen, dass du so besser auf recoil reagieren kannst, aber es macht die Darstellung auf dem Monitor nicht schneller.
Die Kristalle brauchen die gleiche Zeit um das Bild darzustellen.
Aber deine Augen haben es viel leichter, die bewegten Teile des Bildes scharf aufzunehmen.
dSi schrieb:
und warum sollte man mit FidelityFX so seine FPS Pushen können wenn man damit Tearing hätte?
Wo ist hier der Zusammenhang?
Man hat eine Grafikkarte, die weniger FPS liefert als man möchte....
Diese Technik senkt die Auflösung und kashiert den Qualitätsverlust "einigermaßen" mit geschickten Schärfefiltern und anderen Methoden.

Was hat das mit Tearing zu tun?
dSi schrieb:
Aber wir schweifen vom Thema ab!
Oh aber sowas von. :daumen:
dSi schrieb:
es gibt nur 2 möglichkeiten. Entweder die Treiber oder der hoch geprügelte Arbeitsspeicher.
Der Arbeitsspeicher würde zu 99% einfach Abstürze verursachen und wenn er Leistung kostet, weil die Fehelrkorrektur arbeitet, hätte er die gleichen Probleme auch mit der Nvidia Karte.

Das Problem scheint weit verbreitet und ich wüsste nicht, warum es mit den zwei Treibern zu tun haben sollte.
Auschließen kann ich es natürlich nicht, da das ein Beweisumkehr wäre die ich nicht leisten kann, aber mein System ist seit dem Nvidia Treiber schonmal neu installiert worden und trotzdem habe ich ebenfalls die Ruckler in BL3...klingt schon nach einem AMD Problem....bzw. ein Problem der unreal engine 4.
dSi schrieb:
Hier steht es nochmal schwarz auf weiss bei Minute 11:42 !
Was steht denn da?
Ein paar Sachen, die inzwischen nicht mehr gelten....das Video ist aber auch von 2016.
Und ein paar Sachen, die weiterhin gelten.

Nur sehe ich da nichts passendes zum Thema.

dSi schrieb:
Tearing hat man nur wenn die FPS unterhalb der Monitorwiderholfrequenz droppen was man mit FreeSync oder G Sync oder V Sync verhindern kann indem Bilder hinzukopiert werden.....
Natürlich hat man auch darüber Tearing.
Dann hat sogar jedes Monitor-Frame Tearing.
FPS unterhalb der Monitorfrequenz haben zumindest nicht bei jedem Frame Tearing, da auch manchmal ein Frame komplett dargestellt werden kann, ohne von einem neuen unterbrochen zu werden.

Bei Freesync/G-sync/Gsync compatible werden keine Bilder hinzukopiert, außer man fällt unter die untere Grenze der"refresh range"...das nennt sich dann LFC.
V-sync ist nicht gleich V-sync...da gibt es verschieden Varianten und Umsetzungen.
Manche halbieren dann die FPS und stellen das Bild doppelt dar, aber in der Regel setzt V-sync einfach aus, sobald der Monitorrefresh nicht erreicht wird.

..........Ich hätte mich nicht dazu hinreißen lassen sollen.
Aber jetzt ist es geschrieben. ;)

Eventuell lernt jemand etwas aus der Diskussion. :)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Azghul0815
Baal Netbeck schrieb:
Und starke Schwankungen in den Frametimes(Ruckler) sind ja das, was das eigentliche Thema dieses Threads war....und zwar genau mit einer 6900XT.



Ich bin durchaus in der Lage reproduzierbare Benchmarks zu machen und ich habe das in beide Richtungen ausprobiert, als ich von einer Nvidia auf eine AMD Grafikkarte gewechselt bin.
Erst habe ich die AMD Karte eingebaut, ohne den Nvidia Treiber zu entfernen.
AMD Treiber installiert....Keine Probleme.
Dann habe ich die Karten wieder zurückgetauscht und die Test nochmal gemacht.
Wieder keine Probleme und die gleiche Leistung wie im Anfangszustand, wo ich noch keine AMD Karte hatte.


Erstens weiss Ich sehr wohl was Tearing ist, Ich bin ein High Sensitivy Spieler und da ist extrem wichtig kein Tearing oder Ghosting zu haben.

Wenn du so extreme Probleme hast mit Tearing dann solltest du mal ein anderes Displayport Kabel verwenden, denn Tearing kann auch von einem schlechten Displayportkabel kommen wenn es nicht Konstant die selbe Leistung liefert.

Und 99% aller Displayport Kabel sind aus China und von den sind 99% echt Müll. Die Displayportkabel von Lindy oder die beiliegenden von Zowie sind immernoch die besten.

und so nebenbei, AMD empfiehlt Lindy Displayport Kabel für Ihre Grafikkarten ;-)

https://www.amazon.de/gp/product/B075XV8CWX/ref=ppx_yo_dt_b_search_asin_title?ie=UTF8&psc=1

warum wohl?

99% aller beliegenden Displayportkabel bei Monitoren kannste gleich in die Tonne werfen, wie oben schon geschrieben ist nur bei Zowie oder Alienware ein brauchbares Kabel dabei.

Mit Benchmarks kann man höchstens Feststellen ob es Hardwaretechnisch Probleme gibt, Ich sag nur das Beispiel mit AMD und Unreal Engine 4. Da scheiden sich im ganzen Internet die Geister, die einen sagen das geht garnicht wohingegen die anderen Sagen es läuft alles erste Sahne.

Du kannst nicht einfach Benchmark runs machen und behaupten das Treiber im Hintergrund keine Probleme verursachen. Benchmark runs kann man absolut nicht mit den ganzen Games vergleichen die es gibt.

Ich mach keine Benchmark runs um Grafikkarten zu Testen das ist der letzte Blödsinn, was bringt es mir wenn die Karte 21.000 Punkte im Time Spy Grafikscore erreicht aber in den meisten meiner Spiele einfach nur schlecht Performt im gegensatz zur Konkurrenz. Ich sag nur RTX vs RX und wenn alte Treiber oder andere Treiber weiterhin im Hintergrund mitlaufen kommt es in vielen Spielen zu Problemen.

Selbst ein falscher oder älterer Chipsatz Treiber kann solche Probleme verursachen, solche Frametime Probleme hat man ja derzeit immernoch mit Windows 11 ist ja weitestgehend bekannt.

FPS schwankungen oder Frame Time Spikes kommen nicht durch Tearing oder weil Freesync aus ist, sowas kommt von Software oder zu hart übertakteter Hardware oder von Defekter Hardware. Es gibt nur diese 3 Varianten.

Rein aus dem Bauchgefühl heraus mit nur den wenigen Infos vermute Ich das es von seinem 4000 Mhz Ram kommt, denn die 6900XT befeuert seinen Arbeitsspeicher bischen mehr als eine kleine 1070er und wenn Ram nicht Stabil läuft dann entstehen solche Ruckler.
 
Ok....ich habe den Fehler gemacht und geantwortet.... jetzt bekomme ich neue falsche Aussagen vorgesetzt...

Die werde ich nicht kommentieren, da es offensichtlich keinen Zweck hat.
 
  • Gefällt mir
Reaktionen: EyBananaJoe, Powl_0, Azghul0815 und eine weitere Person
Nein leider nicht.
Aber ich habe mich da wirklich bemüht und keine Lösung gefunden.

Ich nehme mal an, dass ich das Problem reproduzieren konnte.
Zumindest in Borderlands 3...warframe besitze ich nicht.

Wie gesagt. Ich konnte die meisten Ruckler verhindern, oder sie zumindest weniger deutlich machen, indem ich den internen 60 FPS Limiter benutzt habe.
Ich fand ich kann das Spiel so ganz vernünftig spielen. Aber es bleiben 60 FPS...das ist spürbar träger und an sich nicht perfekt flüssig.

Meine schnellste Nvidia Grafikkarte, wäre die mobile 1050 Ti Max-Q in einem Dell XPS.
Das wird vermutlich so oder so ruckeln und vor allem die 4GB Vram werden probleme machen.

Aber ich kann es ja mal installieren und probieren.

Es wäre schon heftig, wenn dieses Problem ganz alleine auf den Grafikkartenhersteller zurückzuführen wäre.
 
Was mir geholfe hat, habe ich gepostet, ist aber in den ellenlangen Diskussionen sicher untergegangen :)
 
  • Gefällt mir
Reaktionen: Baal Netbeck
@Baal Netbeck
Ich mag die Rohleistung von den aktuellen AMD Karten, aber Probleme mit Mikrorucklern, Treiberprobleme usw. bekomme ich die letzten 3 GPU Generationen vermehrt von AMD mit, weshalb ich mich aktuell für die Grünen entschieden habe.
Hoffen wir es wird besser.

@Snowknight
Viel Erfolg bei der Jagd nach einem adäquaten Ersatz für die 6900XT!
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Zurück
Oben