Mein AMD-Erlebnis (eine Art "Tagebuch")

Ich habe halt beim wechseln von AMD auf NVidia gegoogelt und es nach Anleitung gemacht. Also mit DDU im abgesicherten Modus den AMD Treiber entfernen usw. Habe Null Probleme mit den NVidia Treibern.

Zu dem Thread hier:
Im Luxx gibt es einen Stammtisch Thread wo man nach Lust und Laune rum diskutieren kann ohne OffTopic zu sein. So ein Thread fehlt eh bei CB. So wie ich das sehe verwenden wir den Thread vom @t3chn0 dafür und evtl. macht er ja irgendwann mit. Keine Ahnung was die Moderatoren darüber denken.
 
Liebe Freunde der Sonne und der Nacht, ich habe Euch etwas mitgebracht.

Wie der Zufall es so möchte, baue ich mir ein zweites System auf. Nun stellt sich die Frage nach der GPU...und tadaaaa...die 1060 steht vor der Tür, aber ich brauche Abwechslung.

Somit eröffne ich hier wieder und wollte bereits ankündigen, dass eine RX480 mit 8GB im Landeanflug ist. Ich habe mich für das derzeitige Topmodell von XFX entschieden. Die Black Edition mit Custom Backplate. Die Karte ist ab Werk schon ordentlich übertaktet.

http://www.xfxforce.com/de/products/amd-radeon-rx-400-series/rx480be-rx-480m8bba6

Ich nehme die Referenzversion da ich mir (extra für HisN) die Option für Crossfire offenhalten möchte. Macht mit Midrange Karten nicht wirklich Sinn, aber ich habe Spaß dran.

Die beiden 970er sind mittlerweile einer 1080 gewichen.

Ich werde die 480 natürlich im Hauptrechner testen, sonst wäre das unfair.

Kurz zur 1080, ein Traum...wirklich. Der Preis ist zwar recht brutal, dafür ist die Performance und Effizienz ebenso brutal.

Obgleich ich sagen muß, dass ich relativ viel Overwatch spiele und die beiden 970er dort die 1080 wirklich alt aussehen lassen.

Ich habe noch nie so gutes Multi-GPU Scaling wie bei Overwatch gesehen.

Vielleicht wird mich die 1080 aber auch zeitnah wieder verlassen, da die Titan P vor der Tür steht und ich einen Freund habe, der mir meine Karte zum Neupreis abkaufen würde. Da käme mir die 480 gerade recht.


Abschließende Bemerkung zu meinem Ziel...Battlefield 4 1080P mit 144FPS durchgehend auf Ultra Settings.

Kurzum, unmöglich ^^. Vielleicht mit einem 6700K und 5,8Ghz, sonst eher nicht. Egal welche GPU man einsetzt, die CPU wird der Flaschenhals sein. Mittlerweile spiele ich competitive und daher eh auf 720P Medium Settings. Selbst da bricht die CPU manchmal von 200FPS auf 120 ein und das merkt man deutlich.

Bestes Spielerlebnis in BF4 Ultra 144Hz in 1440P war die Benutzung von Gsync. Damit läuft es wirklich flüssig. Aber, es kommt zu massivem Inputlag. Auch die Hitreg wird grausam mit Gsync (reproduzierbar). Daher kann ich bei Shootern nur von Gsync abraten.

Sollte Battlefield 1 die Battlefront Engine geerbt haben, wird man deutlich mehr FPS bekommen als bei BF4, das wird sich noch zeigen. Ziel, Battlefield 1 und Ovewatch mit 1440P und 144FPS konstant spielen zu können in Max Settings.

Los gehts :)
 
Zuletzt bearbeitet:
Yay! Endlich geht es weiter. Ich kenne jemanden, der schwört auf Workstation-Hardware für das Spielen. So ungefähr sollen die CPUs bessere Leistung entfalten, weil die Chipsätze nicht kastriert sind. Bzw. sind die "Spielechipsätze" kastriert. Du hast doch bestimmt Bock, das zu testen? :mussweg: Wäre aber für mich doch auch irgendwann interessant, wenn mal der 4790K mal nicht reicht.
 
t3chn0 schrieb:

Ja, mehr davon! Ich bin gespannt :)

Ich wusste nicht, dass G-Sync einen so starken Inputlag bei BF4 verursacht. Weißt Du wie das im Verhältnis mit Freesync ist? Wahrscheinlich nicht besser, da bei beiden das zu grunde liegende Prinzip dasselbe ist, oder? Und noch eine Sache: Wie empfindest Du den Inputlag für Shooter bei SLI-/Crossfire-Systemen?
 
AW: Mein AMD-Erlebnis (eine Art "Tagebuch

Also, Gsync und Freesync verhalten sich effektiv eigentlich genauso wie Vsync, mit dem Unterschied, dass sich die Frequenz des Monitors , dynamisch an die Framezahl anpasst und somit smoother wirkt.

Jedes Spiel, welches sich mit Vsync "schwammig" anfühlt, wird sich auch mit Freesync und Gsync so anfühlen.

Ich habe ein weiteres Problem mit dieser Technik. Unter 90Hz bemerke ich massiv, dass der Monitor seine Frequenz zurückgenommen hat. Bei 48FPS arbeitet das Display mit 48Hz und das merkt man. Mich stört das sogar mehr, als würde das Spiel "ehrlich" ruckeln.

Du kannst ja quasi "on the Fly" zwischen Gsync und ULMB umschalten bei 120Hz. Der Unterschied bei Shootern ist gigantisch.

ULMB spielt sich so direkt und schnell, toll!

Deshalb bin ich der Meinung, lieber genug GPU und CPU Power haben, als sich auf Gsync einlassen zu müssen.

Ashes of the Singularity spielt sich auch mit 120Hz und 50 FPS sehr smooth. Da benötigt man gar kein Gsync. Für mich ist das alles Spielerei.

Und ja, es kommt mit SLI zu einem leichten Inputlag, deshalb hatte ich bei BF4 auch SLI immer deaktiviert.

Für Metro 720P und Medium Settings, reicht auch eine GTX960 für 180-200FPS.

Allerdings bricht die Karte dann bei Spielen in 1440P und Ultra Qualität brutal ein. Da ist die 1080 je nach Szenario mal eben 3-4x so schnell. Bei Doom sogar 6x...

Einen riesen Tadel muss ich hier NVIDIA jedoch auch mal loswerden. Jetzt hat AMD endlich geschafft die Karten auch im 144Hz Modus korrekt runterzutakten und schon fängt bei NVIDIA dieser Müll an.

Deshalb muss man die Idle-Werte der 1080 und 1070 im 144Hz Modus mit Vorsicht genießen. Bei 120Hz takten die Karten korrekt runter, dadurch ist der Verbrauch ERHEBLICH geringer im Idle, als man es im CB Test sieht.

Sollte man das 144Hz Problem beheben, wäre alles perfekt.
 
Hey, G-Sync bietet doch mittlerweile die Möglichkeit sich selbst zu deaktivieren wenn die Frames drohen ins Cap zu rennen, dadurch wird der drohende Inputlag umgangen. Alternativ kann man auch die Settings so wählen dass man erst garnicht in die Nähe der Max-Frequenz rennt. Funktioniert natürlich nur wenn die Sync Range groß genug ist das die min. Frequenz nicht zu nahe kommt und man in Gefahr läuft ins Frame-Doubling zu laufen.

Und gerade BF4 kann doch auch ingame die FPS cappen, bei gametime.maxvariablefps 137 sollte auch kein zusätzlicher Inputlag mehr entstehen.

Aber für jemand der gerne zwingend ständig 144 FPS halten möchte ist diese Tatik wohl eher nichts. :D
 
Hab gar kein Sync an in BF4, auf 144 FPS gecapt und kein Tearing.
Ka warum das für so viele Leute ein Problem ist. :D

Hab aber auch bei gametime.maxvariablefps irgend ein krummen Wert von 144.95 oder so.
Auf glatten 144Hz gibts auch bei mir Tearing
 
Zuletzt bearbeitet:
Mich stört etwaiges Tearing nahezu gar nicht.

Übrigens, was du meinst ist "FastSync", aber dieser ist in BF4 derzeit noch unbrauchbar. Du kannst wählen zwischen Gsync und FastSync.

Gsync verursacht Inputlag und Fastsync sorgt für Aussetzer während dem Spiel ^^.

Ich versuche so lange wie möglich an der 200FPS Grenze zu bleiben, spielt sich für mich nochmals direkter als mit 144FPS.

Mein ursprüngliches Ziel war jedoch 1080P 144FPS und komplette Ultra Settings (auch 4xMSAA etc.) und das IMMER , egal welche Map und auch bei 64 Spielern auf Pearl Market.

Es scheitert IMMER an der CPU. Ich glaube, dass ich wirklich viel Geld in dieses "Projekt" gesteckt habe und selbst jetzt ist es noch immer nicht möglich das zu erreichen. Selbst ein 5960X mit 4.2Ghz schafft das nicht.

Angefangen hat ja alles mit einer GTX 780 und BF4....ab da kamen bestimmt 10 Grafikkarten zum Einsatz, nur um hinterher festzustellen, dass es an der CPU liegt ^^.

Letztendlich weiß ich jetzt was man dafür aktuell benötigen würde.

Wer Battlefield 4 auf 1080P Ultra Settings IMMER mit 144FPS genießen möchte, benötigt einfach nur folgendes:

GTX 1080
i7 6700K @ 5.8Ghz
16GB Arbeisspeicher

Das ist eigentlich schon alles ^^.

Ich habe derzeit eine komische Fantasie in meinem Köpfchen....die RX 480 kann ja auch wieder hoch bis QuadFire ^^.

Mein Board schafft das wohl nicht, aber 2x 480 @ PCIx 8x und 1x 480 @ PCIx 4x ..... hmm....da würde mich wirklich mal interessieren wie das so läuft, wenn ein Spiel wirklich perfekt skaliert. Sowohl Overwatch, als auch BF4 und Battlefront bieten ausgezeichnetes Scaling. Andere Spiele spiele ich eigentlich nicht.

Ich bin gespannt wie der neue Treiber von AMD so ist. Die alten Crimson Versionen fand ich wirklich eher bescheiden.

Tendenziell spüre ich wieder die absolute Sinnlosigkeit hinter meiner Idee ^^.

Obwohl ich von der Performance der RX480 laut Benchmarks eher enttäuscht bin, fasziniert mich etwas an der Karte. Vor allem die Black Edition mit dem Werks OC und der Backplate. Da sieht die Geschichte auch hochwertig aus.

Ich freue mich auf die Karte. Sollte heute oder morgen kommen.
 
CF mit 8x und 4x elektrisch ist in der Tat extrem sinnlos.
Zumal du ja offenbar eine GTX1080 besitzt und so ein CF Quatsch gar nicht nötig hast.
Ultra brauch ich nicht (Bis auf Texturen), hauptsache ich hab keine Drops. ;)
Die 480 ist für mich ganz einfach kein Upgrade, warte immer noch begierig auf eine 490, auch wenn ich so langsam daran zweifel, dass es eine Polaris wird und eher glaube, dass es eine Vega wird und der Release wohl dann noch auf sich warten lässt.
 
t3chn0 schrieb:
Gsync verursacht Inputlag

Keinen relevanten.
Wenn ich mich recht erinnere war das Fazit in der damaligen G-Sync/FreeSync vs. Input-Lag Diskussion:
Das rennen in Caps nahe der maximalen Frequenz verursacht Inputlag, nicht die Sync-Technik grundsätzlich.

lag-bf4.png

This is good news; G-SYNC noticeably improved Battlefield 4 visual gameplay fluidity with no input lag compromise.
 
Woher das nun resultiert kann ich auch nicht genau sagen.

Fakt ist, GSync an und die Maus wird leicht schwammig, die Hitregistration ist um WELTEN schlechter, das Spiel an sich läuft aber besser.

Gsync aus, Spiel läuft etwas "unrunder", aber die Maus ist super präzise und alle Treffer werden blitzschnell und korrekt umgesetzt.

Gefühlt liegen zwischen beiden Modi einfach Welten.
 
t3chn0 schrieb:
Woher das nun resultiert kann ich auch nicht genau sagen.

Das kommt von den hohen FPS die du fährst.

Nicht falsch verstehen: G-Sync ist nichts für dich bzw. dein Anforderungsprofil. Du profitierst logischerweise mehr von ULMB. Hast du ja auch schon selber festgestellt. Das liegt aber nicht an der Überlegenheit dieser Technik sondern am Szenario bzw. deiner individuellen Anforderung.

Ich z.B. spiele mit Mittelklassehardware mit anspruchsvollen Settings und dementsprechend relativ geringen FPS. Außerdem stört mich Tearing. Dadurch profitiere ich sehr stark von AdaptiveSync, ohne die von dir genannten Nachteile erleiden zu müssen.
 
t3chn0 schrieb:
Selbst ein 5960X mit 4.2Ghz schafft das nicht.

Vielleicht taugt Workstation- und Serverhardware wirklich und bei BF4 entfaltet die Xeon-CPU die Leistung besser wegen eines besseren Chipsatzes? Wäre auch episch, wenn die Redaktion von Computerbase mal solche Hardware gegen die Blingbling-Hardware antreten lassen würde, beide mit der GTX1080 drauf.
 
Ich denke, dass die reine IPC Power fehlt.

Obwohl BF4 wirklich von vielen Kernen profitiert, so reichen letztendlich 4Kerne mit HT aus, um gut spielen zu können. Alles andere geht über den Takt.

Das merkt man schon, wenn man von 4.4 auf 4.9Ghz geht, alleine das gibt einem 25 FPS im Minimum. Da fehlen aber nochmals 30-40FPS im Minimum um IMMER 144FPS zu erhalten.

Deshalb gehe ich einfach mal von 5.8Ghz aus beim 6700K der ja eine höhere IPC als der DC hat.

Vielleicht müssen es sogar 6Ghz sein....BF4 ist wirklich eine Sau aus dem Bilderbuch.

Ich glaube nicht dass Server Hardware hier einen massiven Vorteil bringt, der fuer so viel Takt kompensieren könnte.

Ich bräuchte mal jemanden mit mind. einer 980Ti und 6700K mit 5Ghz+ der mal testen kann.
 
Nein, ich ich bin auch sehr an Ergebnissen zu CPU hungrigen Spielen wie BF4 und Division z.B. interessiert. Wie viel Kerne und welchen Takt für welches Spiel um eine bestimmte FPS Zahl zu erreichen mit einer starkern Grafikkarte die nicht limitiert (980ti/1070/1080).
 
Doch, mich interessieren Server Grade Komponenten auch, aber die Anschaffung ist wirklich teuer.

Damals zu Pentium 4 Zeiten hatte ich mal eine Zeit lang einen Pentium 4 Extreme Edition auf einem Server Board direkt von Intel, zusammen mit ECC Speicher.

Schneller lief das nicht, aber Ultra stabil.

Was versprichst du dir denn von den Komponenten?

Ich denke dass ein Xeon eher schlechter bei Spielen abschneidet.
 
Haben sich die min Frames eigentlich geändert, beim wechsel auf die 1080, mir kommts so vor, als ob Pascal den CPU takt etwas besser ausnutzen kann.

Hab kein BF4 mehr drauf und nicht wirklich Lust, über die "Landleitung", 50Gb zu saugen :D
 
Zuletzt bearbeitet:
t3chn0 schrieb:
Doch, mich interessieren Server Grade Komponenten auch, aber die Anschaffung ist wirklich teuer.

Damals zu Pentium 4 Zeiten hatte ich mal eine Zeit lang einen Pentium 4 Extreme Edition auf einem Server Board direkt von Intel, zusammen mit ECC Speicher.

Schneller lief das nicht, aber Ultra stabil.

Was versprichst du dir denn von den Komponenten?

Ich denke dass ein Xeon eher schlechter bei Spielen abschneidet.

Wenn man ein X99 mit eine I7 5xxx leisten kann, klappt es vielleicht auch mit dem Server-Board und einem Xeon. Und ich erhoffe mir ebenfalls Stabilität und bessere Leistung mit einem nichtvestümmelten Chipsatz. Wie gehabt, sollte mal eine Redaktion testen.
 
Banger schrieb:
Müsste Computerbase halt mal testen oder eine andere Hardwareseite. Oder bin ich hier der einzige, dem das interessiert?

Gab es mal, allerdings vor dem BF4-Release. Klick
 
Zurück
Oben