Mein AMD-Erlebnis (eine Art "Tagebuch")

@t3chn0

Also ich habe ja auch noch eine AMD Grafikkarte [wenn auch nur die kleine Asus Radeon HD 7870 GHz Edition DirectCU II v2 Aktiv ] und finde Dein Bericht recht interessant und wenn man finanziell die Möglichkeiten hat, warum soll man dann dies nicht nutzen. Zu AMD`s Mantle könnte ich jetzt einiges sagen, aber das verkneife ich mir mal jetzt. Denn wenn man irgendetwas Negatives darüber sagt heißt es ja sofort, das ist eine neue API und die ist noch in der Betaphase, das sind Kinderkrankgeiten usw., also wenn etwas sagen dann nur Positiv, alles wird gut AMD.

Nvidia hat mit dem Maxwell Chip AMD nicht nur abgewatscht, nein man hat AMD richtig in die Schranken gewiesen und seitdem hört man von AMD [sehen tut man ja schon lange nichts mehr bezgl. neuer Grafikkarten] nicht mal mehr ein Räuspern. Zu tief sitzt auch noch der Schmerz von AMD mit dem "Tonga" disaster. Aber was martialische Namen betrifft, da ist AMD ganz großes Kino, ich sage nur: "King of the hill", alle AMD Fans sind jetzt schon wieder euphorisiert weil AMD eine HBM-Grafikkarte mit 300 Watt ankündigt, ja 300 Watt man liest richtig, es dauert noch etwas weil der Kühler in größe eines Autoanhängers noch auf Grafikkartengröße gebracht werden muß, aber die Graka soll kommen.

Ich glaube das mit der Ernergieeffizienz wird bei AMD nichts mehr, 300 Watt da werden die ersten Modelle wieder für ordenlich frische Luft und viel Lärm im PC-Gehäuse sorgen, aber so ist sie halt die schöne neue AMD Grafikkartenwelt. Und das viele hier im Forum den Kopf schütteln, wenn sich jemand so viele Grafikkarten leistet wundert mich nicht, ist wahrscheinlich auch viel Neid dabei. Andere kaufen sich ein Auto für 500.000 Euro, da fährst Du mit Deinem Hobby was das finanzielle betrifft vergleichsweise noch recht günstig. ;)
 
Zuletzt bearbeitet:
Och, ich habe einen 6er GTI bei APR komplett auf einen K04 Lader umbauen lassen mit Volkswagen Racing Fahrwerk und Tar Ox Bremsanlage, das war dann doch "etwas" teurer ^^.

Jeder setzt seine Prioritäten anders, das ist halt so. Meine Freundin weiß nichtmals warum man überhaupt zocken sollte und warum man Geld in einen Computer steckt, bzw. ein Auto mit >300PS benötigt, geschweigedenn mehr als 150PS haben sollte.

Das ist auch alles vollkommen legitim. Ich schreibe auch keinem vor, wie er sein Geld investieren sollte.

Wichtig ist eine ordentliche Private Altersvorsorge, Eigentum und vor allem Glück und Gesundheit.

Alles andere ist doch Spielerei. Letztendlich sollte jeder das tun und lassen können was er möchte, solange es keinem dritten schadet. Ich habe eine PLAN Patenschaft über ein Kind in Nicaragua, da sind doch Probleme wie "OOOOH, AMD ist besser als Nvidia, oder Nvidia ist besser als AMD" alles nur reiner Killefitz.

Dennoch bin ich ein Technik-Nerd und ich liebe Fortschritt und Dinge selbst auszutesten. Ich versuche hier weder Partei für Gruppe A oder B zu ergreifen. Ich schreibe es so runter wie ich die Situation vorfinde.

-

Das mit den 300W würde ich nicht zu streng sehen. Denn 300W Peak-Leistung bei einer vielleicht wirklich verdammt schnellen Karte kann auch "ok" sein. Kommt aber auf die Leistung an.

Was ich mich jedoch frage. Ab der 390X vs TitanII unterscheiden sich beide Lager ja noch viel mehr als so schon. Ich persönlich kann mir nicht vorstellen, das Nvidia sich lumpen lässt und die 390X davonziehen lässt. Der 3D Speicher mag schön und toll sein, aber was wird es bringen?

Wenn ich hier bei der 290X oder auch bei der 980/970 wirklich massiv was am Speicher hochtakte, dann ist der Effekt davon im Spiel = 0....nur in einzelnen Benchmarks können ein paar Punkte rausspringen, aber nichts gravierendes. Das SI limitiert doch absolut selten. Die Chip-Architektur und dessen Frequenz macht doch hier die Musik. Und Maxwell im Vollausbau mit 6 oder 12GB Speicher, wird auch ohne den 3D Speicher ein unglaubliches Monster werden.
 
Siehst du und genau das ist eben nicht erstaunlich ! :)

Genau darum geht es mir doch bei meinem Problem. Die 295x2 läuft wegen Mantle auf 99% bei beiden GPUs. Das was du dort siehst, sind die maximal möglichen Werte der 295x2.

Die 980 SLI langweilen sich hier einfach nur. Denn das Testsystem ist ein 3960X@3.9Ghz.

Bei meinem 4790K @ 4.9 GHz liegen beide 980er bei 50-70% Auslastung bei den Settings. Das wird beim 3960x nochmal weit darunter liegen. So viel Power haben die 980er.

Die sollten der CPU nochmal +1Ghz geben, dann liegen die 295x noch immer da, aber die 980 SLI sind deutlich vorbei gezogen.

Dafür wird dann wieder die CPU limitieren.

Aber genau darüber habe ich doch gesprochen. Die 980 ist wirklich ein Biest und zumindest in BF4 wird keine CPU es schaffen die Karten auf 1080P aus zulasten. Vielleicht bei 5.5Ghz.

Ab 1440P und Ultra Settings pendelt es sich ein. Da liegen GPU und CPU etwa gleich auf. Bei 4K auf Ultra limitieren die 980er dann.

Meine 290x ist wieder auf dem Weg zurück. Bis jetzt kann ich nur nochmal sagen, dass der Nvidia Treiber bei mir besser funktioniert als der AMD Treiber.

Und DSR kostet definitiv erheblich weniger Performance als VSR. Auch von den FPS her ist die GTX970 im direkten Vergleich deutlich potenter. Auf Ultra Settings und Full HD gibt es maximal Drops auf 75 FPS, bei der 290X auf 56 FPS.

Im Schnitt liegt die Karte so bei 100FPS würde ich sagen. Die 290X bei 80FPS (beides mit OC).

Je nach MAP und Action limitiert auch bei einer 970 OC die CPU auf 1080P, während die 290X immer am Anschlag rennt und dazu noch deutlich wärmer und lauter wird. Stromverbrauch ist bei der 970 unter voller Last fast 100W geringer(wenn beide Karten im OC sind) .

Das ist meine persönliche Erfahrung bis jetzt.

Ich werde die SSC dennoch evtl zurückschicken. Da EVGA am Montag oder Dienstag die FTW+ Edition vorstellt. Ich hoffe auf eine Asic von 75%+, damit ich die Karte mit 1600Mhz laufen lassen kann.

Übrigens wurde die 980 Kingpin angekündigt...sehr verlockend, aber ich bleibe bei der 970er bis zur Titan II(X).
 
Ist ja auch völlig klar das die 970 die 290X in den meisten (nicht allen) Fällen abzieht steht, wird ja in Tests von allen möglichen Magazinen bewiesen. Und dann die 980 die mindestens nochmals 10% mehr Leistung hat ist natürlich momentan das höchste der Gefühle.

Aber die R290er sind auch 1 Jahr älter und waren damals als Konkurrenz zur GTX Titan Classic/GTX780(Ti) aufgestellt und nicht damit beworben auch nvidia zukünftige Karten zu übertreffen.

Man muss sehen wie sich Amd´s R300 Serie schlägt aber um die Erwartung so niedrig wie möglich zu halten sollte man davon ausgehen das die Titan X in Sachen Leistung als Prestigeobjekt bis zum Erscheinen des Topmodells der R4x0 Serie unerreichbar..bis Amd uns evtl. vom Gegenteil überzeugt.
 
t3chn0 schrieb:
So, ich habe mal vorhin ein Video gemacht vom Gameplay mit der 290X:

https://www.youtube.com/watch?v=q9E8dzxNc6s&feature=youtu.be

Wie man sehr gut sehen kann, stottert das Bild manchmal und es gibt extrem viel "Tearing" zu sehen.

Einstellungen sind 1080P auf Ultra Settings (4xMSAA), GPU @ 1082Mhz/5500Mhz bei ca. 67°C .

CPU läuft mit 4.9 Ghz Catalyst Omega 14.12 auf einem komplett neu installiertem System.

Ich werde jetzt die neue 970 SSC von EVGA austesten. Benchmarks habe ich auch durchlaufen lassen (Firestrike, WarThunder,Heaven)

Ich will dich ja nicht enttäuschen aber das Geflacker beim reparieren ist kein tearing. Der Effekt spielt mit den Schatten verrückt, bei tearing wäre der Hintergrund auch abgehackt. Den Rest kann ich nicht beurteilen, sieht ja völlig merkwürdig aus wenn du auf den Hubschrauber zugehst. Nen freesync oder meinetwegen auch gsync Monitor hätte es wahrscheinlich auch getan, glaube nicht dass man den Unterschied zwischen 120 und 144 Fps noch erkennen kann. Das größte Problem scheint ja tearing zu sein und nicht dass es "ruckelt". Konstante 144 FPS mit 4xMSAA bekommst du eh mit keiner momentanen Hardware hin, kann man aber überall im Internet lesen. Aber anscheinend gehts hier ja um was völlig anderes das ich wahrscheinlich nicht verstehe.
 
Ganz am Anfang wo ich das Blickfeld hin und her schwenke, da siehst du doch, dass das Bild "zerteilt" wird im Hintergrund. Das ist für mich ganz klar Tearing.

Und ich habe diesen Effekt sowohl mit dem Omega gehabt, als auch mit dem 14.11 Beta Treiber. Dann habe ich mein komplettes System nochmal sauber aufgesetzt (wurde eh mal wieder Zeit) und habe dann wieder den 14.12 Omega installiert und dann dieses Video aufgenommen.

Mit der GTX 970 ist dieses Verhalten weder mit, noch ohne Vsync zu beobachten.
 
Tearing geht aber nicht weg, wenn du die FPS erhöhst. Du musst die FPS mit dem Monitor synchronisieren. Entweder per freesync/gsync oder eben konstante 144 bzw. 72 FPS. Anscheinend liefert die 970 irgendeine FPS, die näher an der 144 bzw. 72 liegt. Rund 105 liegt nun ziemlich dazwischen, kein Wunder dass du tearing hast.

Ich versteh immer noch nicht, wo das Problem bei den zwei 980er war. Mit 120 FPS warst du gut dabei und 144 FPS sind nach momentanen Stand der Technik nicht möglich (jedenfalls auf der Qualitätseinstellung).
 
"Tearing" ist ein Effekt, der genau dann auftritt, sobald die FPS ungleich eines ganzzahligen vielfachen der Hertz eines Monitors ist. Wenn es zu "Rissen" im Bild aufgrund der Grafikkarte kommt sind das wohl eher Grafikfehler. Die 290x selber produziert nicht mehr Tearing als eine 970. Es ist immer die Kombination aus Monitor und Grafikkarte. Mit einem ändern der Hz-Zahl oder dem erhöhen/(paradoxerweise auch erniedrigen) der FPS, so das beide Variablen besser aufeinander abgestimmt sind erreichst du auch weniger Tearing bei der 290X.
 
Nils, das muß man differenzierter betrachten.

Dass die 144FPS konstant nicht drin sind kann sein, muß aber nicht sein. Die 295x2 kann das möglicherweise liefern, allerdings nur unter Mantle, das ist ganz klar.

Die 120FPS im Schnitt mit den 2x980ern sind ganz ok gewesen, aber seit der GTX970 jetzt sehe ich einfach, dass es zumindest bei Nvidia rein an der CPU Leistung mangelt, mehr nicht.

Die 970 kann mit ordentlichem OC sehr gute 137 FPS darstellen, bei 1080P auf Ultra. Die 2x 980er im SLI können sogar auf 199FPS kommen, je nach Map, auch bei 64 Spielern. Allerdings nur, wenn man an einer Stelle ist, wo es nahezu keine CPU Last gibt.

Denn, der einzige, limitierende Faktor bei BF4 auf Full HD, ist ganz klar die CPU.

Eben habe ich Operation Mortar gespielt. 64 Leute, es spielt gar keine Rolle ob ich auf 1024x768 spiele, oder auf 1080P. Die FPS sinken immer wieder auf ~ 100FPS ein und das mit 4.9Ghz.

Hätte ich 5.5 Ghz, dann würde die Karte mit Sicherheit konstante 130FPS ohne Einbrüche schaffen. Das ist jedoch reine Utopie.

Von daher bringt mir eine GTX980 auch rein gar nichts, denn die FPS verändern sich nur im "Maximum", aber das Minimum bleibt bestehen. Aber genau um diesen Wert geht es mir.

Wie man also sieht, würde mir eine Titan II auch rein gar nichts bringen, da die GPU hier überhaupt nicht das Problem darstellt (bis auf Pearl Market).

Es kann damit für mich nur 3 Lösungen geben.

1) Neue CPU Generation (wobei diese erstmal schneller sein müßte als ein 4790K @ 4.9Ghz)
2) Reduktion CPU Overhead (ähnlich Mantle) sprich, DX12 + Windows X
3) Mantle mit einer deutlich potenteren GPU als der 290x, also eine 390X

Da ich die Treiber von Nvidia deutlich favorisiere, wäre mir eine Kombination aus 1+2 am liebsten.

Unterm Strich ist eine 970GTX für meine Zwecke nicht viel langsamer als 2xGTX 980.

Das ändert sich natürlich extrem, wenn man auf 4K spielen möchte, oder komplett andere Spiele spielt, die wirklich komplett GPU-lastig sind. Dort knallen die 980er der süßen 970er einfach nur brutal um die Ohren.
 
t3chn0 schrieb:
Es kann damit für mich nur 3 Lösungen geben.

1) Neue CPU Generation (wobei diese erstmal schneller sein müßte als ein 4790K @ 4.9Ghz)
2) Reduktion CPU Overhead (ähnlich Mantle) sprich, DX12 + Windows X
3) Mantle mit einer deutlich potenteren GPU als der 290x, also eine 390X
Oder Du siehst den Wald vor lauter Bäumen nicht und es gibt ne vierte Lösung.
Ich würde noch mal bei Post #1 ansetzen.
Du willst also 144fps erreichen. Die Frage ist, warum?

Entweder wegen a) Inputlag-Minimierung oder wegen b) Motion Blur Minimierung.
a) wird es wohl nicht sein, da Du Multi-GPU in Betracht ziehst, was dem wieder entgegenwirkt.
Wenn es b) ist, dann müsste Dein Ziel 120Hz + Lightboost lauten, da das sehr viel weniger Motion Blur ergibt als 144Hz ohne Lightboost. Kannst Du alles bei blurbusters.com nachlesen: http://www.blurbusters.com/zero-motion-blur/lightboost-faq/

motion-blur-graph.png
 
deine komischen Erfahrungen passen nicht
im Luxx habe meine Kollegen teils deutlich bessere Leistung bei der 290x
 
Nein, das Bild ist spürbar "ruckeliger" < 100FPS, von daher möchte ich immer darüber bleiben. Ist aber mit meinem Prozessor unmöglich.

Gerade in Szenarien wo viele Effekte berechnet werden müßen (Rauch, Wasser, Partikel, Feuer) bricht die CPU Leistung doch massiv ein.

Auf Siege of Shanghai vorhin, da gab es ettliche Situationen wo die FPS nur noch ~87 betrugen, die GPU Last jedoch nur bei 93% lag. Somit liegt man da ganz klar im CPU Limit.

Damit steht auch fest, dass die 970 OC mit 1552Mhz im Boost mehr als schnell genug für Battlefield 4 ist. Die einzige Ausnahme bildet hier die Karte Pearl Market.

Denn dort beträgt die GPU Last auch auf 1080P immer 99% und man liegt bei etwa 82 FPS konstant. Hier würde ein SLI Gespann in etwa 130FPS liefern, da ab 130FPS wieder die CPU limitiert. Oder auch Drops durch die CPU auf 80FPS, was dann wieder gegen SLI spricht.

Es ist also relativ komplex.

Perfekt wäre eine konstante GPU Last von 99% und dabei IMMER 144FPS, mit einer API die die CPU so entlastet, dass die CPU hier nicht zum Flaschenhals wird.
 
TE

Sehr interessanter Beitrag von dir. Ich hätte vielleicht eine Lösung für dich ohne das du auf ATi hättest umsteigen müssen. Spielst du BF mit Grafikeinstellungen Extrem? Geh einfach auf sehr Hoch/ Hoch und schon solltest du deine 144fps haben.
Falls du aber es auf Extrem schaffen willst weiß ich nicht wie. Extrem ist eh überbewertet^^. Außerdem lese ich kein AMD Bashing aus seinem Beitrag. Ist nun mal so das wenn man 2 Unterschiedliche Grakas hat Unterschiede erkennt und auch dementsprechend entäuscht/ unzufrieden ist.
Bin gespannt wie sich das weiter entwickelt und viel Glück bei deinem Vorhaben.
 
Zuletzt bearbeitet:
Ich habe eben mal mit G-Sync + Framecap bei Quake Live verglichen. 80 fps/Hz sind zwar sichtbar "flatteriger", aber dieser gleichmäßige Blur stört mich nicht beim Spielen. Ist nur auf die Dauer etwas anstrengender für die Augen. 100 fps/Hz kann ich kaum von meiner Normaleinstellung 135 unterscheiden.

Probier's einfach aus. Mit G-Sync sind absackende fps kein holpernder Ausnahmezustand mehr wie bei Vsync.
 
Ich konnte es nicht lassen, weil es mir einfach keine Ruhe lässt.

Ich hatte seit der 4850x2 kein Crossfire mehr. Ich habe heute Nachmittag zusätzlich zur 970er noch eine 295x2 bestellt. Die Karte sollte spät. Samstag da sein.

Ich werde dann berichten.
 
Mit deinem Geldbeständen könnte ich mir die Titan X reinknallen, dazu gibt es den Lappen in einer örtlichen Fahrschule und oben drauf und kann ich erstmal 2 Wochen Hochzillertal suchten gehen. <3 :D

Warum nicht mal erneut mit 2 R9 290X probieren, ggf. mit 8GB-Modellen? Oder habe ich gerade einen Denkfehler, bzw. warum wird die R9 295X genommen? 2 einzelne Karten haben nur 8 Lanes, die Doppelchipkarte hat 16 Lanes, aber pro GPU und pro Speichergruppe sind es dann sozusagen auch nur 8 Lanes.
 
Zuletzt bearbeitet:
Der Grund dafür ist einfach.

Ich empfinde die 295x2 einfach als tolles Stück Hardware. Rein von der Verarbeitung her, vom Aussehen etc. Das Konzept gefällt mir einfach.

Die 2x290x wären auch möglich gewesen, aber hier schreckt mich die Kühlung ab.

Die XFX 290X mit 8 GB war als single Karte schon recht laut und sehr warm. Kein Vergleich zur 970er.

Nur mit Wasserkühlung kommt man diesem Problem bei. Dort kostet jeder Block nochmal 100€ und ich muß meine ganze Loop wieder umfrickeln. Und was ist, wenn mir die Karten wie die einzelne 290x dann nicht gefallen?

Dann kann ich sie nichtmals zurückschicken und habe auch keinerlei Gewährleistungsansprüche.

Außerdem habe ich bei der 295x2 irgendwie ein total positives Gefühl. Denn die Karte ist das absolute Flaggschiff von AMD und wird inhouse gefertigt. Da wird sich AMD nicht lumpen lassen.

Ich freue mich tierisch auf die Karte und bin gespannt, ob es wirklich so ein anderes Erlebnis wird, wie mit der Single GPU.

Ich hoffe wirklich auf ein Mantle Feuerwerk in BF4. Die Skalierung scheint dort extrem gut zu sein mit der Karte.

Sollte die Karte dann wirklich gar nichts sein und auch wieder diverse Treiber Zicken machen, dann schiele ich ganz stark in Richtung der EVGA GTX980 Kingpin Edition , die ich ja auch als 780er Ti bereits besessen habe.
Diese kann man ab dem 01.02 exklusiv als EVGA Kunde pre-ordern.

Sinnvoll? Nein, bestimmt nicht... Aber ein verdammt schönes Stück Hardware auf jeden Fall.
 
Die XFX-Karten sind auch weitestgehend als S**eißkarten verschrien. Die Vapor-X-Karten sind doch nicht so verkehrt. Darunter ein oder 2 Lüfter, die von unten pusten.
 
Zurück
Oben