Mein AMD-Erlebnis (eine Art "Tagebuch")

Moment Moment Moment.

Zunächst einmal hat die Karte (auch wenn es die 8GB Version ist) 384€ gekostet und nicht 320€.

Was viele hier scheinbar nicht verstehen, ist nicht der nackte Austausch von 2x 980 auf 1x290X und dann wundern...."oh nein, warum ist die langsamer".

Das ist doch gar nicht der Punkt!

Der Punkt ist doch die 144FPS (144Hz Monitor mit Vsync). Unter 100FPS läuft das Spiel DEUTLICH schlechter.

Mit den 2x 980ern war es nicht möglich diesen Wert zu erreichen, aber doch nicht weil die Karten zu langsam waren, sondern weil die CPU , auch mit 4.9Ghz bremst! Warum will das keiner verstehen. Es ist ein CPU Limit und kein GPU Limit. Und Mantle ist GENAU DAFÜR da. Das CPU Limit zu reduzieren und die Last auf die GPU zu legen.

Aus diesem Grund habe ich gehofft, das mir Mantle treue Dienste leistet und ich mit 2x290X endlich nicht mehr im CPU Limit hänge, dank Mantle.

Aber , die Performance von einer 290X ist schon so dramatisch schlechter, als mit 1x980, dass hier auf einmal trotz Mantle ein GPU Limit herrscht. Genau damit hätte ich nicht gerechnet. Das GPU Limit bei der 980 liegt im Schnitt bei ~ 120FPS. Bei der 290X sind es nur noch 90FPS und die Karte ist am Anschlag.

Und eben hatte ich wieder auf Siege vor einem Feuer konstante 60FPS. Ich meine dass es mit der VaporX deutlich besser lief+Mantle. Mantle läuft 100% aber es spielt sich ehrlich gesagt, eher so wie damals mit Direct X...also sehr bescheiden.

Ich habe nicht direkt CF bestellt, weil ich wissen wollte wie eine Karte performt und was die Wärme in meinem Case macht.

Wofür ich wie mein Geld ausgebe sollte doch mir überlassen sein, oder?

Ich versuche einfach meine Erlebnisse widerzugeben, oder denkt jemand im Ernst, dass ich meine 980er einfach grundlos mit dem Wertverlust verkaufe?


P.S. Die Begründung mit den 144Hz vs 120Hz und dem Speichertakt, kann doch nur eine Farce sein, oder? Was bitteschön soll da zu einem Fehler führen? Und warum funktioniert das bei (vorsicht, hier kommt das böse Wort) Nvidia ohne Probleme?
 
Zuletzt bearbeitet:
Abgesehen davon, dass hier alles auf Gesehenem (schonmal etwas von Diagrammen gehört? Screenshorts? FPS Verläufe?) basiert, mach ich nun mal mit.

An sich ist der Vergleich zwischen einer GTX 980 und einer R9 290X 8 GB unter dem Aspekt der CPU Auslastung und somit Mantle interessant.
Nun war ich doch an einigen Stellen sehr verwundert:

Man wird das Gefühl nicht los, einen dezenten Unterton von AMD Bashing permanent mitzubekommen.
t3chn0 schrieb:
Eine einzelne 980er wird in der Regel zu 90-99% ausgelastet, was eigentlich deutlich mehr Sinn macht...

Während es an anderer Stelle als krassen Vorwurf fomuliert wurde:

t3chn0 schrieb:
Während die 980 immer so 100-120FPS mit meinen Settings geliefert hat, bekomme ich mit der 290X mit Mantle in etwa 80-80FPS. Leider sind es auch manchmal um die 70FPS. Sowas kannte ich von der 980 gar nicht. Die GPU Auslastung konnte ich mit GPU-Z überprüfen und in der Tat, 99% GPU Last...IMMER!

Überraschung Überraschung!
Sie haben den Generationenunterschied entdeckt *Achievement!

Das war auch schon der Teil deines Beitrags, der dann wohl das Thema bestimmen sollte (siehe auch Schlussbemerkung).

Aber dem ist nicht genug, denn die Schlussfolgerung ist ja nun wie folgt:
GPU Limit herrscht mit EINER 290X selbst unter Mantle.
Na da sind wir ja schon wieder überrascht! Hätte ja keiner für möglich gehalten!

Das am Ende nochmal VSR sowie der Speicherbug heranzegzogen wird um folgendes zu fomulieren:
t3chn0 schrieb:
Genau diese Perfektion sorgt dafür, dass Nvidia , AMD den Rang total abläuft.

...gibt genau das Bild wieder, welches man hier im Forum des Öfteren beobachten darf!
Zufällig Axel Springer Redakteur?
 
Zuletzt bearbeitet:
Erstaunlicherweise kommen diese Kommentare nur von Personen mit AMD Karten....müßt Ihr Euren Kauf rechtfertigen oder was ist hier gerade los?

Fühlt Ihr Euch auf den Schlips getreten, oder einfach nur schlecht/zu wenig geschlafen?

Warum Kritik immer als "Gebashe" aufgenommen wird ist schon irgendwie amüsant. Posted doch mal lieber Eure eigenen Erfahrungen.

Mir war vollkommen klar, dass die 980 als GPU schneller und aktueller ist. Sonst hätte ich wohl noch den Energieverbrauch angeschnitten.

Es geht doch einfach nur um das Ziel 144FPS und Mantle. Mehr nicht....

Das ist diverse nervige und unnötige Bugs gibt, mein Gott nochmal...ja, das ist eben so. Das macht Nvidia nunmal eben besser, bitte steinigt mich dafür dass ich das anspreche. ^^

Wer sind denn hier die Hechte, die bei jedem Benchmark von irgendwelchen Spielen rumposten, dass die 980 ja so ein Flopp ist und so schlecht ist, wegen einem 256Bit Speicherinterface und oh nein, nur 4GB Speicher und bei 4K ist die 290X ja schneller weil bla und blub.

Und wenn dann noch Mantle mit dabei, dann gehts richtig rund....

Das ist doch pures Fanboy Gerede! Mir ist es vollkommen egal, ob eine AMD oder Nvidia Karte in meinem Rechner steckt. Ich mag beide Hersteller.

Nur wenn man Schwächen nichtmals ansprechen darf, wie soll man dann etwas verbessern?


Aber nein, hier muß stehen....

Also DSR ist viel schlechter als VSR, total die unnötige Spielerei! Die 980 ist Ihr Geld nicht Wert und viel zu laut. Außerdem ist der Energieverbrauch mit OC gar nicht weniger als bei einer 290X. Außerdem sind die Maxwell Karten alles Speicher-Krüppel wegen ihrem Speicherinterface. MFAA braucht sowieso keiner und die einzige Innovation heißt Mantle. Denn mit Mantle läuft alles perfekt.

Auch die Bildqualität ist bei Nividia viel schlechter und man benötigt sogar noch eine SLI-Brücke...da ist AMD viel besser!

Shadowplay ist doch total überbewertet, wer braucht schon sowas? Gibt es bei AMD doch auch!

Genau sowas wollt ihr hier doch lesen.

Anstatt sich mal zu freuen, das jemand von Nvidia wieder zu AMD wechselt, wird nur rumgejammert. Und ja, ich erlaube mir diese Kritik an einem Flaggschiff.

Denn, wenn man sich die nackten Daten einer 290X mal rein zieht, dann müßte diese Karte ein absolutes Monster sein.

Aber wahrscheinlich pflegt AMD auch diese "Lalala, alles ist toll" Mentalität und steht deshalb genau da! Man könnte zumindest mal wieder 1x pro Monat einen ordentlichen Treiber releasen....


P.S. Die Sache mit den 99% Auslastung macht Sinn, bezieht sich lediglich auf den Vergleich zwischen SLI und Single GPU. Denn SLI bringt gar nichts, wenn die Auslastung auf beiden Karten nur jeweils 50% beträgt.

Die 99% bei der 290X beziehen sich auf die Tatsache, dass die CPU stark genug ist, die Karte permanent mit 99% laufen zu lassen. Das war keine Kritik an der Karte selbst. Außer dass diese bei 99% Auslastung nicht schnell genug ist, meiner Meinung nach.
 
Zuletzt bearbeitet:
Naja, mit Ati habe ich auch keine gute Erfahrung gemacht.

Im Mai kurz eine R9 290 gehabt und Minecraft 1.7.10 lief beschi**en. Ohne Shader war es zwar auch flüssig, aber es brach oft auf 40FPS ein. Die starken FPS-Schwankungen waren zum *otzen. Sichtweite war 16. Mit dem Seus-Shader auf Sichtweite 16 gab es 20-30FPS und die Auslastung war allerdings nicht auf Anschlag. Die Karte ging zurück.

Anschließend habe ich mir eine GTX460 geliehen, die maximal 1/3 der Leistung hatte. Minecraft ohne Shader und mit Sichtweite 16 lief konstant auf 120FPS (FPS-Begrenzung). Mit Shader war nicht mit der Karte! Waren so 15, glaube ich, mit Sichtweite 16.

Ich besorgte mir die GTX780 von Inno-3D. Minecraft ohne Shader auf Sichtweite 16 war selbstverständlich auf konstanten 120FPS (Begrenzung). Mit dem Seus-Shader gab es 40-60FPS, wo die Ati nur 20-30 geschafft hat. Auch war hier die Auslastung nicht auf Anschlag, weil bei 40FPS CPU-Limit herrschte, da leistungsfressende Stellen.

Bei Nvdia hatte ich im Spiel das erwertete Open-GL auf "aus", was gegenüber "an" Leistung gespart hat. Bei Ati war es nicht vorhanden und wenn doch, war es vielleicht auf "an" und ich habe der Ati-Karte Unrecht angetan?

Selbst wenn das der Fall war, war die Entscheidung, die Karte zurück zu geben, für mich richtig. GTA IV z.B. lief nämlich auch weit beschi**ener als auf Nvidia. Meine Spiele sind wohl eher Nvidia-Spiele. Immerhin lief der Eurotruck-Simulator gleichwertig auf der Ati.

Bevor geflamed wird, ich weiß, dass ich mal lieber "googlen" hätte sollen, um zu schauen, wie meine Lieblingsspiele laufen. Außerdem hatte ich erst nicht genug Geld und es reichte nur für die Ati. Den Rest musste ich mir nach der Rücksendung zusammenwürgen und habe mir meine Inno-3D für 400€ bei einem Ebay-Hardwareladen ergattert. Mindfactory hat mindestens 430€ verlangt.

Edit:
"Warum Kritik immer als "Gebashe" aufgenommen wird ist schon irgendwie amüsant. Posted doch mal lieber Eure eigenen Erfahrungen."
*LOL* Ich war schon am schreiben, wo dein Beitrag online kam.

Ach, übrigens, bei der R9 290 haben auch die Lüfter im bestimmten Drehzahlbereich gerattert. War für mich ein Mangel. Außerdem war bei Minecraft auch ein Artefakt zu sehen. Möglicherweise war die Karte leicht defekt oder sie hatte fehlerhaften Kontakt im Steckplatz.

Diesen fehlerhaften Kontakt im Steckplatz hatte ich gerade neulich auch mit der GTX780, weil plötzlich bei Minecraft, Far Cry 3 und 4 ständig der Treiber zurückgesetzt wurde. Unterschiedliche Treiber durchprobiert und auch runtergetaktet. Nichts! Als letzten Schritt hatte ich aber noch Karte rausnehmen und reinstecken, den ich durchgeführt habe. Die Karte läuft seitdem wieder anstandslos. *Facepalm des Todes* Dabei hatte ich schon den Karton mit meiner Notfallkarte bereitliegen gehabt, eine GTX465, die ich zur 470 geflasht habe.
 
Zuletzt bearbeitet:
Es ist doch immer wieder ein Genuß Praxiswerte von dir zu lesen & kein halbgares, angedichtetes Pseudowissen & das schätze ich besonders ...Chapeau!
Ich kann die teilweise kritische Stimmen auch absolut nicht für voll nehmen & da sollten mal diverse Kandidaten deine Texte nochmals genauer & aufmerksamer lesen.
Das Board kränkelt ja mMn immer mehr an den sog. Hardliners, diese "Ihrer Marke" damit aber wahrlich keinen Dienst erweisen ...eher das Gegenteil ist der Fall & durch diverse
Stimmen erhält die Marke für mich pers. einen noch bitteren, herberen Beigeschmack & das überträgt sich leider auch auf das Label AMD!^^

Schade, daß Du auch mit Mantle deine Zielvorgabe nicht erfüllen kannst & mit dem Runtertakten ist bei NV ebenfalls der Fall, zumindest @1440p über DP.
Erst ab bzw. bis zu 120Hz taktet alles wie gewohnt. Du hast ja jetzt schon eine Menge probiert als auch investiert & "mehr kannst eigentlich zur Zeit nicht machen."
Eventuell & falls möglich ...investiere mal in GSync oder AS & Schwankungen würden sich ggf. gar nicht mehr bemerkbar machen, zumindest vom Empfinden her könnte das für dich eine spürbare Verbesserung sein, unabhängig was der Framecounter anzeigt ... :-)
 
P.S. Die Begründung mit den 144Hz vs 120Hz und dem Speichertakt, kann doch nur eine Farce sein, oder? Was bitteschön soll da zu einem Fehler führen? Und warum funktioniert das bei (vorsicht, hier kommt das böse Wort) Nvidia ohne Probleme?

Wenn es bei Nvidia ohne Probleme funktioniert, warum gibt es dann auch Beiträge im Nvidia Forum wo es darum geht, das die Nvidia Karte bei 144Hz mit mehr Takt läuft als bei 120Hz?

Frage:
Hi, I have a GTX 760 4gb and I recently bought a 144hz monitor and I noticed that if I set my refresh rate to 144hz under Nvidia control panel my GPU's core clock jumps up significantly compared to 120hz.
Antwort:
it does this to prevent flickering.
 
@t3chn0
Schöner Beitrag an sich. Zwar an der ein oder anderen Stelle warscheinlich für den ein oder anderen etwas zuviel Gemecker, stört mich persönlich allerdings nicht :D
Spiele zwar auch Battlefield 4 seit geraumer Zeit nicht mehr, allerdings mit den baldigen (hoffentlich) Erscheinen der G-Sync/Freesync Monitore wird 144Hz ja nach und nach interessanter (zumindest für mich).

Ich denke für deine Ziele wirst du allerdings auf die 390er Generation von AMD warten müssen oder eben auf die entsprechenden Reaktionen von Nvidia.

Bin mal gespannt, ob dann neue Hardware bei dir wieder zum Einsatz kommen wird. Vor allem würde mich natürlich interessieren, wie sich dann ggfs. G-Sync/Freesync bei dir so schlägt.
 
Naja

War ja klar das es wieder kommt
Du solltest vielleicht mal sauber Neuinstallieren
Und ich kenne ganz andere User aus dem Luxx die mit einer 290x unter 8.1 und Mantle konstant 70-90FPS haben. Und das teils mit deutlich schwächeren CPUs
 
Kritik an deinem Beitrag und schon kommt man die Leberwurst.
Bestätigt doch nur die Vermutung.

t3chn0 schrieb:
Warum Kritik immer als "Gebashe" aufgenommen ...
Einer derartige Kritik ist doch einfach nur lächerlich!
Wenn ich in einem Audi Forum einen Test zu einem Toyota lese, ist doch klar welches Fazit gezogen wird!
Aber genau das ist das Problem!

t3chn0 schrieb:
Das ist diverse nervige und unnötige Bugs gibt, mein Gott nochmal...ja, das ist eben so. Das macht Nvidia nunmal eben besser, bitte steinigt mich dafür dass ich das anspreche.
Mag doch sein und dies ist vollkommen legitim. Aber dann fomulier es doch nicht, als wärst du der Chefredakteur der Bild persönlich.
Kritik gewinnt an Wert, solange dies Beispiele, genügend Beweise sowie Sachlichkeit beinhaltet.
Diese Vorgehensweise kennt man doch irgendwoher?

t3chn0 schrieb:
Aber wahrscheinlich pflegt AMD auch diese "Lalala, alles ist toll" Mentalität und steht deshalb genau da! ....
Wieder ein Beispiel für obriges!

t3chn0 schrieb:
Die 99% bei der 290X beziehen sich auf die Tatsache, dass die CPU stark genug ist, die Karte permanent mit 99% laufen zu lassen. Das war keine Kritik an der Karte selbst. Außer dass diese bei 99% Auslastung nicht schnell genug ist, meiner Meinung nach.
Jetzt sind 99% Auslastung keine Kritik aber dennoch wird bemängelt, sie wäre zu langsam?
Logik?

Genau das ist das Problem von dem ich hier spreche.
Weder Belege,Sachlichkeit noch Logik?

Eine Konversation bzw. Diskussion definiert sich doch durch den objektiven Austausch und das Ziel einer Erkenntniserweiterung.
Aber scheinbar kann ich nicht erwartenen, einen U-Bahn Fahrer ein Raumschiff testen zu lassen!

Jetzt wieder du! ^^
 
Ich meine einmal gelesen zu haben, dass Mantle gerade dann seine Stärken ausspielt, wenn man mit der CPU nicht sonderlich gut aufgestellt ist.
Habe ich mich geirrt oder etwas falsch aufgefasst?

Trotzdem, gut geschrieben und nachvollziehbar.
Nicht nachvollziehbar ist, dass du die 2 980er verschleudert hast.

Stop, ich bin kein nvidia fanboy, aber auf Grund von 3D Vision an dieses Unternehmen gebunden.
Meine Lieblingskarte in 20 Jahren Daddlerei war meine damals nagelneue Amd 5870, oder war das noch ne Ati?... um hier kein bashing aufkommen zu lassen.

Ich glaube du hast Mantle irgendwie falsch interpretiert ... und predigt nicht der Hisn dauernd, dass bei BF4 mit jeder noch so hoch getakteten CPU irgendwo bei 120 Fps deren Limit erreicht ist?

Ich habe auch ne Zeit lang in kurzen Abständen umgebaut.
5870,480,480sli,670,670sli,770,780,780sli

Mittlerweile halte ich die Füße still. Am Gpu Markt tut sich doch seit Jahren viel zu wenig. Mein letzter Quantensprung war 9800gtx auf 5870.
Aber seither wurden die Gpu Aufgüsse immer lauer.

Mir hat die Testerei auch Spaß gemacht, der Sinn daran rückte aber immer weiter in den Hintergrund. Gefühlsmäßig verstaubt mein 780sli schon. Ist mir aber mittlerweile wumpe. Jetzt liegts an den Gpu Herstellern mich mit wirklich handfesten Argument zum Wechsel zu überzeugen.

Vielleicht solltest du deine Strategie auch überdenken und die Sache ruhiger angehen. 100 fps in BF4 sind doch ok.
 
Das war doch schon immer so im Vergleich nVidia vs Amd. Amd hängt seit HD2900 vs 8800GTX praktisch immer eine halbe bis, wie geradejetzt, eine ganze Generation zurück. Auch hat Amd bis zur HD6000 gebraucht um die Standard Modi wie AA und AF auf dem Qualitäts-Level der G80 also 8800GTX zu bringen.

Von den ganzen Spielerein in Geforce Gameworks wollen wir ganr nicht erst reden. Es ist vollkommen unwahrscheinlich das Amd jemals genau so viel erarbeitet wie nVidia..
 
BF4 unter DX11:
980: 77,1 FPS
290X: 57,4 FPS

Also ein Unterschied von fast 20 FPS.

Mantle Test:
290X @ DX11: 54,9 FPS
290X @ Mantle: 62,7 FPS

Sagen wir einfach mal fast 10 FPS gewinn. (Bei einer starken CPU. Bei Tests mit weniger CPU-Leistung holt Mantle mehr auf, dort liegen die großen Vorteile.)

Das die 290X in Spielen "schlechter" als die 980 ist wird wohl niemand bezweifeln. Sie ist dafür eben günstiger.
Eigentlich alles recherchierbar.
 
Das Ergebnis überrascht mich nicht. Ist ja auch logisch.

1. Was man mit Mantle von der CPU nimmt, kommt auf die GPU drauf. Man verlagert das Limit bei einem solchen Setup von der CPU in die GPU. Das sollte eigentlich logisch sein. Mantle bringt im grunde garnichts, wenn die Hardwareleistung so stark ist, das es praktisch kein CPU Limit gibt bzw. dieses nur noch bei hohen FPS zu sehen ist. Mantle soll durch die Verlagerung nur dafür sorgen, das entsprechende Spiele über die Grenze zu spielbar gehoben werden und nicht, um bei Gamingdisplays auch die 144 FPS zu ermöglichen. Wer solche CPU's sein eigen nennt, benötigt Mantle nicht!
Beispiel: Man hat einen FX-4300 und eine R9 280. Die CPU schafft die Grafikkarte nicht ans Limit. Auf der GPU bleiben Reserven. Mantle nimmt im Grunde einen Teil der Berechnungen von der CPU, wodurch sich das Limit erhöht und lässt sie von der GPU berechnen, wodurch das GPU-Limit sinkt. Denn zum einen wird mehr VRAM verbraucht und zum anderen werden GPU-Leistung für die ehemaligen CPU-Berechnungen genutzt. Und schon steigt die FPS von vllt. 30 auf 50 oder gar 60 FPS. Wer aber einen i7-4790K hat, verlagert im Grunde nur das Limit. In so hohen FPS-Bereichen kann es also auch negative Auswirkungen mit Mantle haben.

2. VSR ist im Vergleich zu DSR noch nicht voll ausgebaut. Ob es das noch wird muss die Zukunft zeigen. Entweder ist es eine lieblose "wenns denn sein muss"-Implementierung oder ein potentes Lebenszeichen. Und wenn man VSR mit Mantle nutzt, ist aus oben genannten Gründen ein Einbruch der FPS nur logisch. Alles andere hätte mich auch gewundert.

3. Es war bekannt, das die R9 290X weniger Power hat als die GTX 980. Dafür ist sie ja auch mittlerweile ~ 200 € günstiger. Die Tatsache, das deine Version 8 GB VRAM hat ignoriere ich jetzt bewusst, da du diese selbst bei den Test's nicht vollbekommen hast. Deine R9 290X ist mit 4GB VRAM schon für unter 300 € zu haben.


So gern du auch bastelst. Aber bei dem Unterbau den du hast war keine Steigerung der Performance mit Mantle zu erwarten. Und wenn du gerade einmal 2,8 GB VRAM mit der GTX 980 voll bekommst verstehe ich beim besten Willen nicht, warum du dann eine 8GB Variante der R9 290X für fast 70 € mehr gekauft hast. Aber wie du und einige andere schon gesagt haben, ist das deine Kohle und du kannst sie verbrennen wie du willst. Aber so abfällig, wie dein Beitrag im Bezug auf AMD geschrieben ist, war es im Grunde nur Frustabbau/Enttäuschung über diesen ziemlich unklugen Fehlkauf!

Zum Glück versuchst du nur ein Problem zu lösen, das DU hast. Andere geben sich damit zufrieden, Spiele auf den höchsten Settings spielbar spielen zu können ;)
 
SuddenDeathStgt schrieb:

Lese ich hier Sarkasmus gegenüber Techno raus? :D

Ich würde im Grunde nochmal erneut testen, um zu sehen, ob Minecraft auch auf der anderen Ati-Karte schei*e läuft. Nur ist da die Gefahr, dass das beschriebene Verhalten wieder eintritt und ich die Karte erneut auf Fernabsatz-Tour schicken müsste. :-/ Aber bei Caseking habe ich ja die R9 290X nicht gewonnen. ^^
 
Gegenüber t3chn0 nicht, eher ein Wink mit dem Zaunpfahl an die Hardliner-Fraktion & daher mein Vermerk ...
kränkelt ja mMn immer mehr an den sog. Hardliners, diese "Ihrer Marke" damit aber wahrlich keinen Dienst erweisen ...eher das Gegenteil ist der Fall & durch diverse
Stimmen erhält die Marke für mich pers. einen noch bitteren, herberen Beigeschmack & das überträgt sich leider auch auf das Label AMD!^^
... :D

Ich finde ja Praxiswerte ist durch nix zu ersetzen, auch wenn diese nicht immer blumig & schön zu lesen sind ... :-)
 
SuddenDeathStgt schrieb:
Eventuell & falls möglich ...investiere mal in GSync oder AS & Schwankungen würden sich ggf. gar nicht mehr bemerkbar machen, zumindest vom Empfinden her könnte das für dich eine spürbare Verbesserung sein, unabhängig was der Framecounter anzeigt ... :-)

Dem Vorschlag schließe ich mich an. Entweder Vsync off oder G-Sync/Freesync. Vsync ist Mist, das fängt immer an zu holpern, wenn der Rechner die volle Framerate nicht halten kann. Bei G-Sync folgt der Monitor der Framerate, da gibt's dann weder Holpern noch Tearing.
 
Was mir gerade aufgefallen ist, ich weiß nicht warum, aber die Performance rein von den absoluten FPS her, ist unter Direct 3D bei BF4 nicht viel schlechter als mit Mantle. Als ich zuletzt eine 290X hatte war das ganz klar anders. Da lief Mantle richtig butterweich und Direct 3D war grausam.

Dafür wirkt D3D nicht so "smooth" wie Mantle. Ich frage mich jetzt, ob das an diesem Omega Treiber liegt.

Übrigens, ich bin zu AMD zurück, weil ich von der VaporX OC wirklich sehr angetan war. Die Performance mit Mantle war auf jeden Fall konstanter und besser als mit der GTX780Ti bei BF4. Sonst wäre ich doch nicht zu AMD zurückgekehrt. Die schlechte D3D Performance habe ich auf den damaligen Treiber geschoben. Der Omega soll da ja massive Besserung bringen.

Kann ich auch erstmal so unterstreichen. Unter D3D war die 290X bisher immer so bei 50-60FPS, jetzt sind es zumindest schonmal 80-100FPS +/- 10 FPS. Allerdings bin ich etwas über Mantle enttäuscht. Das hatte ich DEUTLICH stärker in Erinnerung.

Warum die 8GB Version? Ganz einfach, bei den 980ern habe ich gerne mit 4K DSR oder 1440P gespielt. Da wurden die 4GB recht schnell sehr knapp. Warum sollte ich die 4GB Version nehmen, wenn ich für 50€ Aufpreis den doppelten Speicher haben kann?

Außerdem taktet der Speicher bei der 8GB Version mit 5500Mhz und nicht mit 5000Mhz wie bei der 4GB Version.

Noch ein Phänomen. Die Maus ist unter D3D deutlich präziser als bei Mantle. Mit Mantle habe ich eine leichte Verzögerung beim spielen. Kann das jemand bestätigen?

Und warum sollte ich mich an irgendwelchen Benchmarks orientieren? Jeder weiß das Mantle gerade im BF4 Multiplayer erhebliche Vorteile bietet. Jede CPU limitiert je nach Karte mit 64 Spielern.

Übrigens bei Pearl Market ist die 290X in der Tat etwas schneller als die GTX980. Bei der GTX980 hatte ich in etwa 50-70FPS auf der Karte, mit der 290X zumindest 70-80 FPS. Pearl Market belastet sowohl CPU als auch GPU quasi bis ans Limit.
 
Ich empfehle für weitere Beobachtungen die Konsole der Frostbiteengine zu nutzen

Perfoverlay.DrawFPS 1 zeigt die FPS auch unter MAntle an wie du wahrscheinlich weißt. Nützlicher hingegen ist der graph der CPU/GPU anzeigt: Perfoverlay.DrawGraph 1.

Damit kannst ja genau herausfinden ab wann die CPU limitiert wobei ich das bei deiner CPU eher für unwahrscheinlich halte auch bei DX11. Mantle wird hier nicht viel Mehrwert bringen rein auf die FPS bezogen.
Ansonsten empfehle ich dir objektiver zu schreiben und nicht sofort bei jeder Kleinigkeit ein Fass aufzumachen. Dass das nicht gut ankommt wirst gemerkt haben und mit tendenziöser Berichterstattung wirst hier keine vernünftige Diskussion starten können.

Also einfach mal etwas mehr Zeit lassen, sich informieren, nicht gleich alles schreiben was einem durch den Kopf geht, dann wirst überrascht sein dass man hier auch noch vernünftig reden kann.

Leider spiele ich schon länger kein BF4 mehr obgleich ich es noch installiert habe, hatte aber keine nennenswerte Problem damit. (Habe jedoch mit High Preset gezockt @ 1440p da mir @ Ultra die Frames zu niedrig waren und sich der optische Mehrwert in Grenzen hält).

Und jetzt viel Spass beim testen.
 
So, das habe ich jetzt nochmal gemacht. CPU lief mit 4.9 Ghz. Was bedeuten denn diese Linien jetzt? Die Auslastung kann es ja nicht sein.

Und was kann man aus den einzelnen Bildern erkennen?

Das ist übrigens alles mit Direct3D , daher auch der Afterburner.
 

Anhänge

  • Bild4.jpg
    Bild4.jpg
    489,9 KB · Aufrufe: 820
  • Bild3.jpg
    Bild3.jpg
    324,4 KB · Aufrufe: 639
  • Bild2.jpg
    Bild2.jpg
    114,2 KB · Aufrufe: 613
  • Bild1.jpg
    Bild1.jpg
    372,7 KB · Aufrufe: 649
Zurück
Oben