AMD 390 Crossfire - Mikroruckler bei Freesync?

Wenn nur das übrig bleibt .... dann hast Du ja gar keine Wahl.
Dann würde ich das nicht von MR abhängig machen, denn Du bekommst doch bestimmt Settings zustande, die Außerhalb vom MR-Bereich liegen (60+), obwohl dann beim UHD-Monitor kein Freesync mehr greift. Der Bereich geht ja bestimmt nur bis 60 Hz? D.h. Du darfst so oder so mit einem Limiter arbeiten, der ja zusätzlich gegen MR hilft?

Wir reden hier also um einen Bereich von 10 FPS die man sich mit den Nachteilen von CF erkaufen möchte.
 
Ja, wir reden von einem Bereich von 10 - 20 fps, damit Freesync überhaupt einen Vorteil bringt. Denn wenn die 980 Ti 60 FPS schaffen würde, gäbe es keinen Nachteil gegenüber Freesync.

Eine vernünftige GTX 980 Ti (nicht Referenzplatine) kostet min. 680-90 Euro. 2 x 390 Nitro ca. 670 Euro.

OK. Netzteil brauche ich auch noch, da ich denke das mein Seasonic X 560 Gold mit 560 Watt zu schwach sein wird. Man braucht mindestens 1000 Watt für 390 CF.

Nvidia ist einfach nicht so kulant wie AMD. Dort kostet selbst eine 1440p Monitor mit Gsync und IPS Panel 850 Euro. Weil diese Gsync Module einfach viel zu teuer sind. Ich glaube über 100 Euro pro Stück.
 
Zuletzt bearbeitet von einem Moderator:
Mein Fehler, es geht hier wohl um 2x Neukauf und nicht um eine weitere 390 (hat sich im Verlauf eingeschlichen).

Dann würde ich für 4k wohl einfach eine 390X 8GB mit starkem OC kaufen und einen FreeSync Monitor mit modifiziertem Treiber bis ca. 31Hz. Damit dürfte man keine Probleme haben (ggf. ein paar Details korrigieren). Und das Netzteil reicht auch locker.
 
Zuletzt bearbeitet:
Starkes OC bei AMD? Bei einer Fury waren es 70 MHz. Mehr ging nicht, selbst als man die GPU Spannung um 100 mV erhöht hat.

Wie ist eigentlich die Interpolation bei 4 K Monitoren, wenn man 1440 p spielen will?

Ich habe wenn ich ehrlich bin zu mindestens unter Windows kaum einen Unterschied gesehen.
 
Zuletzt bearbeitet von einem Moderator:
asus1889 es ist ja nicht so das man AMD Karten nicht übertakten könnte.Der Hawaii Chip lässt sich je nach Exemplar schon auf 1200+ takten.Bei den Furys geht es aber wenig da hast du recht.
 
Naja, Fury ist ein monströser Chip.

Eine 390(X) dürfte man mit moderater Spannungserhöhung im Schnitt auf ca. 1150Mhz bringen (mit entsprechendem Kühler). Da geht mit ordentlich Dampf aber auch bis 1200Mhz rauf. Wenn man den Speicher ebenfalls OCt, skalieren die Hawaii eigentlich sehr gut.

Im besten Fall liegt eine 980Ti ca. 40% vor einer 390(x). Also beide Karten übertaktet usw.
Wenn man also mit einer 390X auf 35fps fällst und FreeSync an hast, hilft eine 980Ti mit VSync auch nicht weiter, da ca. nur 50fps kommen.
 
Zuletzt bearbeitet:
Ich hab mir vor einigen Monaten einen 27" / 1440p / 144Hz / G-Sync Monitor + GTX 980 gekauft und bin mega happy damit.
Warum auf Biegen und Brechen auf 4K wenn es dafür noch gar keine vernünftige Hardware gibt?
 
a) Vernünftige Hardware: Standpunktfrage
b) Standpunktfrage: Ein Monitor hält meistens zig Jahre (wenn man vernünftig kauft) Die Grafikkarten wachsen schneller. Lieber einen großen Moni (Auflösung) und die Grafikkarten dazu wachsen lassen, als mehrere Jahre in einen Sehschlitz schauen.

Ganz persönliche Meinung, bisher immer sehr gut damit gefahren. Meine beiden 30" Dell 2007 (die ich 2007 gekauft habe), stehen immer noch hier und das Groß der User kauft immer noch deutlich kleinere (Auflösung) Monitore mit "Features" bei denen man sich darüber streiten kann ob man sie denn tatsächlich braucht. Ich dagegen hab 8 Jahre lang die große Auflösung und die große Fläche genossen, während der Rest sich mit FHD "vergnügt" hat.

Nix geht über Auflösung.
 
Zuletzt bearbeitet:
Ich habe auch nen 1440p Monitor mit einer 290x und würde dir raten vielleicht auch erstmal diese Auflösung zu wählen mit einer R9 390 , sollte so nämlich gut funktionieren :)
 
Ne, der Monitor hat 40-60 Hz nur Freesync. Eine 390 (x) ist dafür eh zu schwach und ich denke eine Fury X auch. Zumal der RAM einfach lächerlich wenig ist für eine Karte in dem Preisbereich. Ich weiß wegen HBM 1.0 und AMD hat zu lange entwickelt (über 6-7 Jahre glaube ich). Die hätten lieber 8-12 GB GDDR5 verbauen sollen.

Hatte mal so einen Artikel gelesen, das bei der Fury X und 4 k die Frametime explodiert, weil der RAM nicht ausreicht. Bei der GTX 980 Ti gibt es hingegen kaum Ausreißer.

1440p ist akzeptabel. Aber gegen 4k ist es ein Witz. Hatte hier selber ein paar Monitore (Asus MG279q (Gelbstich + massives IPS Glow), Iiyama B2783QSU-B1 (schlechte Farben (nicht nur wegen des TN's), unregelmäßige Ausleuchtung), Dell 2515 H ( zu langsames Panel), Dell 2416P (zu viele Lichthöfe + zu langsames Panel) und zwei 21:9 TFT's von LG (beide mindere Qualität mit Pixelfehlern, Unschärfen außerhalb des Zentrums und tlw. Dreck hinter der Scheibe) zum testen.

Der Monitor ist mit Abstand das Beste, was ich je gesehen habe.
 
Zuletzt bearbeitet von einem Moderator:
Zuletzt bearbeitet:
Schon klar, HisN. Aber ein i7-5960X + TitanX ist für mich nicht "vernünftig". ;)

Ist jetzt nicht böse gemeint... Ich gehe halt immer so von der 1100€ Standard-Gaming-PC Konfig hier im Forum aus.
Mit ner GTX970/980 oder R9 390(X) z.B. lässt sich eigtl. jeder Titel gut bis sehr gut in 1440p spielen.
Daher mein Einwand, warum es unbedingt 4K sein soll wenn man dafür richtig tief in die Tasche greifen muss und dennoch viele Abstriche hat.
 
Ich hab den Dell U2515H und bin von der Bildqualität begeistert :) Kann ich also weiterempfehlen :D
 
Zuletzt bearbeitet:
Hatte ich auch. Das IPS Panel ist aber sehr langsam im Verhältnis zu den neuen AHIPS. Scheiße ist nur das ich meine GTX 980 schon verkauft habe. Sonst würde ich mir vermutlich einen ROG TFT kaufen :D.
 
Zuletzt bearbeitet von einem Moderator:
berkeley schrieb:
Gibt es keinen einzigen "CrossFire mit FreeSync" Test?

ich kenn leider keinen vernünftigen, wenn du einen hast nur her damit :D. Möglichst nicht in koreanisch.
Finde die Frage auch sehr interessant.
 
Die SLI-Jünger sagen jedenfalls das SLI-Ruckler nicht mit G-Sync verschwinden.

Ich beziehe mich da auf Aussagen aus dem 3D-Center.
 
Ich habe die Kombi aus Asus MG278Q (1440p / 144Hz / Freesync) und R9 295X2 im Einsatz und kann das, was HisN über die SLI-Jünger berichtet, soweit erstmal auch für die Kombi aus CF und Freesync bestätigen.

Witcher 3 ist z.B. in Kämpfen nahezu unspielbar, da das CF-Ruckeln wirklich extrem ist. Getestete Treiber waren 15.6 und 15.11.1

Es gibt von Sapphire ein Video zur Crossfire Optimierung von Witcher 3, bei denen erscheint das ganze extrem flüssig und erweckt den Eindruck, dass es keine CF-Ruckler in Witcher 3 gibt. Auf einer R9 295x2 kann ich das leider nicht bestätigen, trotz aller empfohlenen Einstellungen heftiges CF-Ruckeln.

Alternativ habe ich nur Arma3 + Mods getestet, auch da Microruckler, aber nicht so dramatisch wie bei Witcher. Dennoch unschön.

Bin gespannt, ob Crimson da Besserung bringt.
 
Zurück
Oben