5700 XT trotz G-Sync Monitor? (Budgetfrage)

Iguana Gaming schrieb:
Sie widerlegen nur deine sinnfreien Aussagen und Argumente, mehr nicht. Denn wäre dies beim Großteil da draußen der Fall, würden sie ebenso nicht entsprechend argumentieren und ich würde dich bitten, das wenn die Leutz mit entsprechender Erfahrung dir Tipps geben, diese auch zu berücksichtigen.

Gerade im Bezug jetzt auch zur Thicc2 hat dir @t3chn0 den Stand der Dinge zur besagten Grafikkarte gesagt und wurde auch von niemanden hier verbessert. Wenn du eh alles besser weißt und da bist du nicht der einzige hier jeden Tag, muss man sich fragen wieso du dir hier überhaupt Rat holst. Nur um in deiner Meinung bestätigt zu werden ? ...

Was das Thema G-Sync betrifft, funktioniert ein G-Sync Monitor nur mit einer Nvidia GPU.
Bei den 0 aussagen und Argumenten die ich getroffen haben dürfte es schwer werden unrecht zu haben. Ich wollte nie über gsync und Input lag diskutieren.


Baal Netbeck schrieb:
Overscan kenne ich nur von Fernsehern.... Wüsste nicht, das da Leute an PC Problem mit haben.

G-sync oder G-sync compatible ist ja für dich egal, deshalb ginge eben auch AMD.

Meiner Meinung nach optimiert Ubisoft in den vergangenen Jahren massiv auf Nvidia.... eventuell wird es mit valhalla besser aber ich würde das als Grund sehen bei Nvidia zu bleiben.

Die Treiber von AMD werden zwar etwas besser aber es gibt weiterhin unverständlicher Probleme.... Probleme die nur in manchen Treibern vorkommen wie flackerndes Bild bei zwei abgeschlossenen Monitoren....vram taktet im idle nicht runter....black Screens (auch wenn ich die selbst nicht erlebt habe).

Bei den Farben kann ich keine Probleme sehen.... Man kann auch bei AMD Farbe Profile wählen und die werden bei mir auch übernommen.....wenn du da etwas spezielles zu deinem monitor brauchst, kann ich da nicht helfen....da kenne ich mich nicht gut aus.
das mit dem overscan gibt es schon ziemlich lange. Manche monitore werden nicht über hdmi richtig erkannt und es ist ein schwarzer Rahmen um da Bild. Abhilfe bringt dann der Treiber, außerdem ist die farbeinstellung nicht auf standard. Gut, sehe grob bei den Benchmarks nur die 0,1% niedriger als bei Nvidia aber wird vermutlich nicht die erste wahl für überwiegend Ubisoft sein.
 
DonSerious schrieb:
Gut, sehe grob bei den Benchmarks nur die 0,1% niedriger als bei Nvidia aber wird vermutlich nicht die erste wahl für überwiegend Ubisoft sein.
Weil man Grafikkarten in der Regel in einem Bereich, oder mit Einstellungen testet, die GPU limitiert sind.
Da spielt der Treiber eine untergeordnete Rolle und die Grafikkarten können relativ gut zeigen was sie können.

Testest du CPUs, dann wird in der Regel nur eine besonders schnelle Grafikkarte verwendet, um die Unterschiede der CPUs zu zeigen...und in der Regel auch in einer anderen Szene, die z.B. innerhalb einer Stadt liegt, mit vielen NPCs und verdeckten Objekten.

Die CPU muss all diese verdeckten Objekte mit berechnen, aber die Grafikkarte kann sie verwerfen und braucht sie nicht zu berechnen....so favorisieren Städte eher ein CPU Limit.

Tests, wo die CPU Szenen mit verschiedenen Grafikkarten gemacht werden, sind sehr selten.

Dieser Test beleuchtet das zur Abwechslung:
AC Origins radeon vs Geforce.PNG

https://www.computerbase.de/2020-05...0x-ram-oc/2/#diagramm-assassins-creed-origins

Hier ist alles im CPU Limit....wie schnell die GPUs sind, ist also egal, aber es ist nicht egal, wie sie mit Daten gefüttert werden.....da macht der Treiber den Unterschied und du siehst die Daten mit "R" sind eine Radeon Navi Karte von AMD und die mit "G" eine Geforce Touring Karte von Nvidia. ...guck auf die Frametimes....egal ob mit Intel oder AMD CPU....die Radeon läuft ziemlich grausig.

Das siehst du in den üblichen Grafikkartentests nicht, weil diese sich von CPU intensiven Szenen fernhalten.
Und lass dir nicht erzählen:"Das ist unrealistisch, weil die Tests in 720p entstanden sind" ....ja, du wirst mit einer höheren Auflösung spielen, aber das bedeutet nur noch schlechtere FPS....denn der CPU ist die Auflösung egal und du wirst trotzdem mit der Radeon Karte schlechte Frametimes haben.


In DX12 kann sich das auch mal umdrehen und die Radeon Karten laufen im CPU Limit etwas besser:
devision radeon vs Geforce.PNG

Aber da brechen die Nvidia Karten dann in der Regel nicht völlig ein....;)
Ergänzung ()

Iguana Gaming schrieb:
Wenn man nen Freesync Monitor hat, funktioniert auch Gsync Compatible mit einer Nvidia Karte, aber net umgekehrt. @Baal Netbeck oder weißt du da mehr und hast ne Quelle die das bestätigt, das es auch bei Gsync Monitoren mit AMD Karten funktioniert ?
Nee nicht wirklich....Ich habe den Monitor nur bei google eingegeben und in den "weiteren Informationen" die Google rechts von den eigentlichen Ergebnissen aufführt stand "NVIDIA G-SYNC, NVIDIA G-Sync Compatible "
Naja und "G-Sync Compatible" ist = "Adaptive sync" = "Freesync"
Das klingt für mich so, als müsste es auch mit AMD funktionieren, aber glauben tue ich es nicht....eventuell nach einem Firmwareupdate oder so.....wenn der ausgeliefert wurde, als Nvidia sich noch dem "freien Adaptive sync" verschlossen hat, wird der nicht mit AMDs Freesync laufen wollen.

Aber kein Monitor verweigert komplett den Dienst....nur eben das adaptive synchronisieren wird mit AMD nicht funktionieren.
Ergänzung ()

DonSerious schrieb:
Manche monitore werden nicht über hdmi richtig erkannt und es ist ein schwarzer Rahmen um da Bild.
Wie gesagt...Das kannte ich nur vom Fernseher....aber ich nutze am Rechner auch nie HDMI sondern immer DP oder bei alten Modellen DVI.....

Man kann wohl benutzerdefinierte Auflösungen einstellen...keine Ahnung ob das so ein Problem umgehen kann:
benutzerdefinierte auflösung..PNG
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Verak Drezzt und Flomek
AYAlf schrieb:
OT
Es gibt nen Inputlag z.B. bei CSGO... oder ist das mittlerweile passé?
Ohne jetzt alles gelesen zu haben....bin direkt zu CS GO gesprungen, sehe ich den Input lag mit G-sync nicht in der G-sync range... wenn die FPS auf 120 begrenzt wurden, ist der input lag im bereich der Messungenauigkeit von 143FPS V-sync off.

143FPS Gsync on wird nicht reichen, um in der G-sync range zu bleiben....man muss beim begrenzen der FPS mehr Spielraum für Frametimeschwankungen lassen! ....wie z.B. mit den 120FPS.

Ich gehe davon aus, dass hier entweder ein Bug, oder eine so getroffene Einstellung, oberhalb der G-sync range automatisch V-sync nutzt.....das erklärt den input lag.

Bei AMD gibt es dafür "erweitere Synchronisation" oder "enhanced sync"....das kann man im Treiber aktivieren, und es ist eine Form von V-sync tripple buffer, die wie Freesync nur minimalen input lag erzeugt, da es die Grafikkarte nicht limitiert......die GPU rechnet einfach immer weiter und wenn der Monitorrefresh kommt, wird das aktuellste vollständige Bild gesendet......nicht wie bei V-sync double buffer, wo die GPU gestoppt wird....und sich bei der CPU Drawcalls "auf Vorrat" ansammeln.

Denn dann rechnet die GPU immer mit Daten, die schon bis zu 5 oder gar 6 Refreshs alt sind....und das ist der hohe Input lag den man spürt. ....vor allem mit 60Hz, wenn die Daten die benutzt werden 5*16,6ms älter sind, als im CPU Limit oder ohne Begrenzung.....144Hz macht das besser, aber auf 5*6,9ms sind unnötig viel input lag.

Nicht jedes Spiel sammelt gleich 5 oder 6 Drawcalls....manche auch nur 1 oder 2 auf Vorrat....daher muss man V-sync bezüglich des Input Lags von Spiel zu spiel neu bewerten....und manche unterscheiden zwischen einem "GPU Limit" und einem "GPU Limit dank V-sync".....und bestimmt gibt es auch irgendein Spiel, dass einfach immer einen Input lag einprogrammiert hat.
 
  • Gefällt mir
Reaktionen: Verak Drezzt
DonSerious schrieb:
Ich glaube hier wird jeder Beitrag dazu missbraucht eigene Meinungen und Ansichten ungefragt mitteilen zu wollen.

Das was ich gepostet habe war nicht nur eine "Meinung" wie von dir, sondern ich habe das auch mit einer Quelle belegt. Von dir kam dazu nur die Aussage das Gsync Input Lag verursacht, ohne aber weitere Quellen oder Beweise die diese Aussage unterstützen. Sehr viele werden diesen Thread lesen und sich diese Aussage von dir merken und das glauben was du behauptet hast.

Du kannst natürlich einen Gegenbeweis posten der ca. ähnlich aktuell ist und deine Aussage wirklich belegt und nicht nur als "Meinung" stehen lässt.

Um auf die Frage nach der 5700xt einzugehen. Wenn würde ich persönlich die Nitro nehmen, Kollege hat die und keine Probleme. Mit der Red Devil haben dagegen sehr viele hier Probleme und hat auch wohl mit die höchste RMA Quote auf Mindfactory.

XFX ka. wie gut die Thicc 3 ist, die 2 war aufjedenfall eine Vollkatastrophe vom Kühldesign her. MSI soll noch ok sein, aber auch da habe ich negatives über das Kühldesign auf Youtube gesehen. Die haben das wohl gefixt, denke daher hier ist die Chance eine alte/schlechte Karte zu bekommen gering.

 
  • Gefällt mir
Reaktionen: Verak Drezzt
Natürlich sind das Ansichten und Meinungen. Es wurde nicht danach gefragt, ob die Wahrheit bei mir oder bei dir liegt tut gar nichts zur Sache da ich nicht einmal einen Wahrheitsgehalt beansprucht habe. Ihr macht hier immer so viel aus den kleinsten Dingen. Dabei habe ich im 2. Post schon darauf hingewiesen dass ich g-sync sowieso nicht nutzen möchte. Dass jetzt immer noch so getan wird als würde ich auf den Input lag beharren den es angeblich nicht gibt (tut nichts zur Sache) ist doch Bestätigung dafür dass es hier jedes Mal so läuft.

Man fragt nach etwas und die Leute suchen das Thema aus dem Text heraus was absolut nicht zielführend ist um ihre „Expertise“ präsentieren zu können. Das ist Fakt. Und ich bin weder unfreundlich noch habe ich sinnlose Argumente und aussagen getroffen. Ich danke dir dennoch für deinen Vorschlag, die Nitro sieht gut aus.

@Baal Netbeck
Mir geht es in erster Linie um ein günstiges aber dennoch gutes Upgrade. Da die thicc II rev 1 wohl viele Probleme hat fällt die schonmal flach. Zwar würde XFX einen ersatzkühler liefern aber auf sowas habe ich keine Lust. Wollte irgendwie von den eBay 10% Gebrauch machen. Gibt es eine gute 5700 non XT die man einfach flashen kann oder haltet ihr das für sinnlos?
 
  • Gefällt mir
Reaktionen: Erzi73
Ich bitte euch, dem TE nun bei der Suche nach einer Grafikkarte zu helfen, nachdem der Sachverhalt zu vermeintlichem Inputlag bei Gsync offenbar geklärt wurde. Im Grunde ist dies aber immer noch ein Thread im Unterforum Kaufberatung. Nichts destotrotz war die Erläuterung natürlich wichtig. Wenn entsprechende Aussagen gemacht werden, ist natürlich eine Erklärung oder Klarstellung dazu - auch wenn danach nicht explizit gefragt wurde - kein Offtopic. Bitte aber nun zur eigentlichen Kaufberatung zurückkommen, die wäre: Upgrade von GTX 1070 für WQHD ohne Sync-Technologie Nutzungsabsicht. ;)
 
  • Gefällt mir
Reaktionen: Weedlord, Baal Netbeck und larud
....dir reicht deine 1070 in 2560x1440p also nicht mehr aus... die Auswahl ist dann ja nicht sonderlich groß.

Bei AMD kommt eigentlich nur die 5700XT in Frage....die ist ähnlich schnell wie meine Radeon VII und ich spiele selbst in 1440p....diese Leistung würde ich in den älteren Titeln als ordentlich und in neuen Titeln als "ausreicehnd" beschreiben.... man muss schon recht häufig die Details etwas reduzieren...weniger AA verwenden....dann komme ich auch in GPU intensiven Spielen wie Metro Exodus oder Kingdome Come Deliverace auf spielbare 70 FPS bei guter Optik.

Bei Nvidia gibt es die 2060 Super, die als Partnermodell wenige % langsamer ist, als eine 5700XT. ...das wird man nicht spüren.

Und die 2070 Super, die 10% oder etwas mehr besser ist als die 5700XT.

Und insgesamt wir die 5700XT 20-40% besser sein als deine jetzige 1070.

Empfehlenswerte Modelle sind wohl:
2060 Super:
https://geizhals.de/palit-geforce-rtx-2060-super-js-ne6206st19p2-1061j-a2086795.html
5700XT
https://www.computerbase.de/preisve...g-gv-r57xtgaming-oc-8gd-a2115901.html?hloc=de
2070 Super:
https://www.computerbase.de/preisve...r-js-ne6207ss19p2-1040j-a2086788.html?hloc=de

Ob sich das für dich lohnt kannst nur du sagen.
 
Die Gigabyte 5700xt scheint echt günstig zu sein. Ich persönlich würde bei dem Preis die probieren. Notfalls gibt es ja noch das Widerrufsrecht wenn die scheiße sein sollte.
 
  • Gefällt mir
Reaktionen: Trefoil80 und Flomek
Moin nochmal,
ich habe eure Vorschläge berücksichtigt muss aber klar sagen dass eine 2060 super nicht in Frage kommt. Der Sprung ist zu klein und das dafür erforderliche Budget ist zu hoch.
ich hätte aber prinzipiell nichts gegen eine 5700 non XT wenn sich diese bei 300€ bewegt. Ich bekomme für meine ja noch locker 250€ und wenn ich bspw. die spiele mit einrechne ist das auf jeden fall ein deal.

Die 2070 super ist leider zu teuer aber eigentlich am unkompliziertesten.
Die Gigabyte bekommt man bei eBay mit 10% Gutschein für etwa 390€. Wäre eine Überlegung wert.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Die RX 5700 ist ein guter Kompromiss zw. Leistung und Budget.

DonSerious schrieb:
Die Gigabyte bekommt man bei eBay mit 10% Gutschein für etwa 390€. Wäre eine Überlegung wert.

Die 2070S für 390,- EUR?

Wo gibts denn das?
 
Gute Entscheidung, die 2060S ist deutlich zu teuer für die Leistung.

Bei der RX 5700 kann man für um 300 Euro nichts falsch machen. Die XT für 390 Euro ist aber auch n top Deal. Würde es auch machen wie @Weedlord , Widerruf nutzen falls du nicht zufrieden bist. Dafür gibt es dieses Recht ja.

Ne 2070S ist auch ne gute Karte, aber ohne Angebotspreis schon ne Hausnummer.
 
Der Sprung von einer 1070 zur 5700 non XT wäre mir aber zu gering. Da die 5700 auch nur so schnell wie eine 1080 im Grunde ist. Würde an deiner Stelle auf AMD's Big Navi oder Nvidia's Ampere im Herbst warten und entweder eine der neuen Karten dann kaufen oder eine 2070/2080Super im Abverkauf dann nehmen.

Je nachdem was die neuen Karten kosten und was sie an Leistung bringen.
 
Man merkt ja aber auch in einigen Titeln, das Pascal nicht gut altert und oft schon hinter Turing und RDNA fällt. Ist aber natürlich vom Titel abhängig.
 
Flomek schrieb:
Gute Entscheidung, die 2060S ist deutlich zu teuer für die Leistung.

Bei der RX 5700 kann man für um 300 Euro nichts falsch machen. Die XT für 390 Euro ist aber auch n top Deal. Würde es auch machen wie @Weedlord , Widerruf nutzen falls du nicht zufrieden bist. Dafür gibt es dieses Recht ja.

Ne 2070S ist auch ne gute Karte, aber ohne Angebotspreis schon ne Hausnummer.
Die 5700 XT von Gigabyte die der Kollege oben gepostet hat kostet bei eBay mit dem Gutschein etwa 400€. Dazu gibt’s dann noch das Game bundle mit Resi 3 und Monster hunter.

Iguana Gaming schrieb:
Der Sprung von einer 1070 zur 5700 non XT wäre mir aber zu gering. Da die 5700 auch nur so schnell wie eine 1080 im Grunde ist. Würde an deiner Stelle auf AMD's Big Navi oder Nvidia's Ampere im Herbst warten und entweder eine der neuen Karten dann kaufen oder eine 2070/2080Super im Abverkauf dann nehmen.

Je nachdem was die neuen Karten kosten und was sie an Leistung bringen.
Geht aber tatsächlich sieht es so aus als wäre der Unterschied doch sehr marginal. Unter der Prämisse ein XT bios zu flashen sollte man keine normale 5700 kaufen oder?

was mich etwa stutzig macht sind immer wieder die Beobachtungen die ich bei vergleichsvideos mache. Die 0,1% low und 1% low sowie die Frametimes sind bei AMD grundsätzlich schlechter bzw. unsauberer. Woran liegt das?

bei 0:50 die lows und 1:30 die frametimes bspw.

Danke und Mit freundlichen Grüßen
 
Achso ja klar wurde oben schon angesprochen. Dachte eher man hat weniger FPS, dass es aber zusätzlich noch instabiler läuft ist natürlich nicht so toll.
 
Nah, im gpu Limit bringen amd und nvidia im Vergleich bei gleicher Leistung normalerweise das selbe.

Was ich damals krass fand war, das ich bei meinem wechsel von einer titan x maxwell auf eine vega64 plötzlich vom gpu limit mit der nvidia in ein hartes cpu Limit mit der amd gekommen und sogar avg teils deutlich weniger fps hatte. Ich spreche hier von knapp 50 fps weniger je nach Spiel in wqhd. Hatte aber auch nur einen i7 3930k @4,5 ghz und 4 x 4 gb ddr3 2400 mhz cl16 im Quadchannel.

Edit: Außerdem war die Titan x maxwell von mir kaum übertaktbar, hab nur knapp 1300 mhz rausbekommen.
 
Baal Netbeck schrieb:
Ohne jetzt alles gelesen zu haben....bin direkt zu CS GO gesprungen, sehe ich den Input lag mit G-sync nicht in der G-sync range... wenn die FPS auf 120 begrenzt wurden, ist der input lag im bereich der Messungenauigkeit von 143FPS V-sync off.

Ich kann nur sagen, dass der reproduzierbar spürbar war./ist?

Spiele CSGO eh nur mit G-Sync. Da mir das Zerreißen des Bildes unangenehmer aufstößt und ich sie eh alle umballer. :freak:
 
Zurück
Oben