Test AMD VSR gegen Nvidia DSR

Krautmaster schrieb:
gerade SC2 zeigt in meinen Augen gut wie AMD bei DX11 ein massives CPU Limit Problem hatte. Der Treiber machte unnötigerweise irgendwie auf wenig oder gar einem Thread die CPU und limitierte die GPU... gut dass man das angegangen ist

Von der Steigerung in SC2 bin ich recht angetan. in 3200x1800 VSR und der Performance nun ein ganz anderes Spiel. Muss ich wohl wieder öfter zocken :D

SuddenDeathStgt schrieb:
@Krautmaster
Ich sehe in SC2 & dem Omega jetzt keinen Unterschied bezüglich der FPS ...Du etwa?

Bei mir läufts sehr viel besser. Lag aber wohl dran, dass es auf reinen AMD Plattformen nie wirklich gut lief :D
 
Lag aber wohl dran, dass es auf reinen AMD Plattformen nie wirklich gut lief
Oh ja & da spricht ein Kenner ...:D
Welcher Intel ist es denn geworden & haben sich die Frames dadurch spürbar gebessert? ;)
 
Also ein Kumpel von it ist damals voneinem AMD FX8350 OC auf 4,8GHZ Wakü auf einen I7 3770K. Der Unterschied war teils gewaltig, was die minFPS an ging. Und das ohne OC des 3770K
 
SC 2 ist stark auf Intel optimiert. Nutzt auch gerade mal 2 kerne. Sonst würde ein FX auch besser skalieren.
 
Zuletzt bearbeitet:
hrafnagaldr schrieb:
Von der Steigerung in SC2 bin ich recht angetan. in 3200x1800 VSR und der Performance nun ein ganz anderes Spiel. Muss ich wohl wieder öfter zocken :D



Bei mir läufts sehr viel besser. Lag aber wohl dran, dass es auf reinen AMD Plattformen nie wirklich gut lief :D


AMD hat bzw. hatte einfach in den meisten CPU Limitierten Games heftige Performance Probleme. Sei es Star Craft, GTA IV, Minecraft oder AC Unity.

Seit ich von der HD 7950 auf die GTX 980 gewechselt bin laufen diese Games um WELTEN besser, obwohl die GPU in ersteren Games nur halb ausgelastet ist, wenn überhaupt. Sie sind 100% CPU limitiert.

In Minecraft haben sich die FPS von 70-80 (incl microrucklern) auf 300-400 FPS ohne Microruckler vervielfacht. Das ist nun ein komplett anderes Spielgefühl. Minecraft fühlt sich nun so direkt und präzise an, wie z.B. CounterStrike. Und ich bin immer davon ausgegangen, Minecraft wär schon fast ein Hardwarekiller, auch wegen java oder einfach nur schlecht optimiert . Dabei war nur der kack AMD Treiber schuld.


Na ja, der Omega kommt ca 1 Monat zu spät für mich. Evtl hätte ich dann die HD7950 länger behalten, aber so oder so, bis ich diesbezüglich wieder vertrauen zu AMD habe, wird es etwas dauern. nVidia hat schon immer aus eigenen Antrieb die bessere CPU performance geliefert. AMD hat dem problem nun wohl wegen Mantle, dem nVidia "Wundertreiber" und der mieserablen performance in AC Unity wohl mehr Aufmerksamkeit geschenkt. Stellt sich die Frage, wie lange das anhält.

Zukünftig sollte es wohl mehr Overhead tests (im CPU limit und auch mit schwächeren CPUs) auf CB geben. Von meiner Seite aus genießt das Thema jedenfalls erhöhte Aufmerksamkeit. Ich hab keine Lust, einfach so CPU Leistung und damit Bares Geld zu verschenken, nur weil jemand seine Treiber nicht auf Vordermann bringt.

Was da an Leistung brach liegt.... Das erspart dem ein oder anderen das CPU upgrade.

Alles in allem muss man wohl oder übel sagen, dass AMD bei den Treibern einfach der schlechtere und nVidia der bessere von beiden ist. Auch wenn viel unberechtigt über die AMD Treiber geschimpft wird. Irgendwo steckt da auch ein gutes Stück wahrheit drinn (wie sich ja jetzt herausstellte). IMHO relativiert das auch den höheren Preis der nVidia Karten...
 
Zuletzt bearbeitet von einem Moderator:
Laggy.NET schrieb:
Alles in allem muss man wohl oder übel sagen, dass AMD bei den Treibern einfach der schlechtere und nVidia der bessere von beiden ist. Auch wenn viel unberechtigt über die AMD Treiber geschimpft wird. Irgendwo steckt da auch ein gutes Stück wahrheit drinn (wie sich ja jetzt herausstellte). IMHO relativiert das auch den höheren Preis der nVidia Karten...

Naja, die Schimpferei bezieht sich immer auf die Stabilität. Und da hatte ich schon ewig keine Probleme mehr. Und auch wenns gedauert hat, nun laufen halt auch die Singlethreaeed / hohe IPC Spiele gut. Soll mir recht sein. Wenn Spiele die Kerne ordentlich genutzt haben, wars eh nie ein Problem.

Und zu zukünftigen Tests: man müsste generell auf Frame Times, Overhead und FPS schauen, nicht nur auf eines.
Abgesehen davon war SC2 zB mit dem FX-8350 immer einwandfrei in 2560x1600 spielbar. Nun läufts halt nochmal flüssiger und optisch schicker mit VSR. Gerade Recht, Legacy of the Void kommt ja noch :D
 
@Laggy.NET
Es liegt nicht an AMD. Es liegt an der bescheidenen Programmierung der Spiele. Das Problem ist a) die sind meistens Intel optimiert und b) nicht parallelisiert.
Die Software-Unternehmen sind echte Flickenteppiche ...
 
Laggy.NET schrieb:
Seit ich von der HD 7950 auf die GTX 980 gewechselt bin laufen diese Games um WELTEN besser, obwohl die GPU in ersteren Games nur halb ausgelastet ist, wenn überhaupt. Sie sind 100% CPU limitiert.

In Minecraft haben sich die FPS von 70-80 (incl microrucklern) auf 300-400 FPS ohne Microruckler vervielfacht. Das ist nun ein komplett anderes Spielgefühl. Minecraft fühlt sich nun so direkt und präzise an, wie z.B. CounterStrike. Und ich bin immer davon ausgegangen, Minecraft wär schon fast ein Hardwarekiller, auch wegen java oder einfach nur schlecht optimiert . Dabei war nur der kack AMD Treiber schuld.
Sorry, aber du wechselst von einer 170€ Graka auf eine 570€ Graka und regst dich dann ernsthaft, dass die 170€ Graka eine schlechtere Performance hatte? CPU Limit hin oder her... Ist doch das mindeste, was man erwarten kann.
UND dann solche Pauschalaussagen, der Treiber sei einfach der schlechtere, mit Anführung eines Games.
In ein paar Games hatten AMD Karten größeren CPU Limit als Nvidia Karten. Das wurde mit dem Omega Treiber angegangen. Den Treiber pauschal für alle Games abzuwerten, grenzt an Unwissen oder Frust.

Siehe das ganze bitte etwas in Relation. Hättest du eine 670 verglichen, könnte man konkretere Rückschlüsse ziehen.
 
berkeley schrieb:
Sorry, aber du wechselst von einer 170€ Graka auf eine 570€ Graka und regst dich dann ernsthaft, dass die 170€ Graka eine schlechtere Performance hatte? CPU Limit hin oder her... Ist doch das mindeste, was man erwarten kann.
UND dann solche Pauschalaussagen, der Treiber sei einfach der schlechtere, mit Anführung eines Games.
In ein paar Games hatten AMD Karten größeren CPU Limit als Nvidia Karten. Das wurde mit dem Omega Treiber angegangen. Den Treiber pauschal für alle Games abzuwerten, grenzt an Unwissen oder Frust.

Siehe das ganze bitte etwas in Relation. Hättest du eine 670 verglichen, könnte man konkretere Rückschlüsse ziehen.

Sorry, du redest unsinn. Die HD7950 bewegt sich auf Augenhöhe zu einer GTX 670. Mit OC bewegt sie sich sogar auf GTX 680 bzw. HD7970 GHz Niveau aka R9 280X.

Die GTX 980 ist im Schnitt "nur" ca. 50% schneller.

Und wenn eine HD 7950 in Spielen wie StarCraft oder Minecraft nur zu 70 bzw. 20% Ausgelastet ist, also nichtmal WARM wird (!) kann man sehr wohl erwarten, dass man hier Auf die selbe Performance wie mit einer GTX980 kommt, deswegen heißt es ja CPU Limit, eben weil die Karte nicht ausgelastet ist und die Leistung der GPU folglich keinerlei Rolle spielt. Wie soll bitte die Grafikkarte die Performance beeinflussen, wenn sie wie in Minecraft z.B. nur zu 1/5 ausgelastet ist??? Wie soll eine Stärkere GPU, die dann nochmal weniger ausgelastet ist, mehr FPS bringen? Warum hab ich in besagten Games beim Wechsel von einer HD5850 auf eine HD7950 nicht mehr FPS bekommen? Erklärs mir bitte!

Wenn du meinst, mit einer teureren GPU bessere Leistung in 100% CPU limitierten Spielen zu bekommen, dann hast du wohl grundsätzlich was falsch verstanden.


Der Treiberwechsel AMD -> Nvidia ist hier alleinig für die steigerung von weit über 400-500% in Minecraft verantwortlich und NICHT die Leistung der GTX 980, die in diesem CPU limitierten Spiel genauso wie die HD7950 nur zu ca. 20% ausgelastet ist, genauso wie die HD5850 die zu ca. 40% ausgelastet war und exakt die selbe Performance lieferte wie die HD7950.



Und nein, das soll kein sinnloses trollen sein. Ich nutze seit 2004 AMD/ATI Grafikkarten und hatte dazwischen nur eine einzige nVidia. Bin also Rot alles andere als abgeneigt. Aber mit dem Alter steigt auch der Anspruch und Beobachtungshaltung was solche dinge angeht. Und alle CPU limitierten Games, die beim wechsel von der HD5850 zur HD7980 keine Performancesteigerung erfahren haben laufen nun mit der nVidia Karte DEUTLICH besser. Und ich hab mich immer gewundert, warum andere mit teils deutlich schwächerer nVidia Hardware mehr FPS in solchen Games erreichen....

Leider sieht man das in den bekannten Benchmarks nicht, da hier wenn dann nur mit einem stark übertakteten i7 im GPU limit gebencht wird, oder wenns mal nen CPU benchmark gibt, dann wird entweder mit einer AMD Karte ODER einer nVidia Karte gebencht. Aber niemals mit beiden.

Du kannst mir viel erzählen, aber ganz sicher nicht, dass nVidia nicht im CPU Limit über viele Jahre hinweg die deutlich besser optimierten Treiber hatte.
 
@Laggy.NET
Irgendwie kann ich das nicht glauben Oo
Soweit ich weiß, gibt es bei SC2 nur eine hohe CPU Belastung. Hast du sonst irgendwas außer die GraKa getauscht? Anderes Win, DX oder ähnliches?
 
@Laggy.NET:
Sorry aber du hast da ein paar Denkfehler. Eine (sicher Custom mit OC) 980 ist nicht "nur" ca. 50% schneller als eine 7950/7970.
Zudem, wenn beide Karten mit nur 20% ausgelastet werden, (7950/980, weil bspw. 1-2 deiner Games extrem miserabel optimiert wurden), heißt das trotzdem, dass eine 980 bei 20% Auslastung wesentlich mehr Performance bietet als eine 7950 bei 20%.

Wenn du also deinen CPU Limit so perfekt bestimmt hast und der Meinung bist, das wäre Allgemeingültig, würde sich das auch mit den allgemeinen Benches im Internet decken (nicht nur CB bietet Benchmarks an, wie du sicher bemerkt hast). Es gibt genug 720p Tests im Netz über viele Spiele hinweg mit allen möglichen Grakas (Minecraft ist wohl leider nicht dabei :) ). Das deckt sich eben nicht mit deinen, sorry, utopischen Werten, also immer ruhig bleiben.
Wenn du also deine Aussage an ein Spiel koppeln möchtest, bitte schön. Aber das ganze hier als die einzige Wahrheit zu verkaufen?... muss nicht sein.
 
Zuletzt bearbeitet:
weiß einer, wie es sich bei einem 21:9 Bildschirm verhällt, ist es da möglich downsampling zu nutzen ?
 
hmm schade
 
Waaaaaaah, was ist nur los bei AMD?! Sind die Programmierer dort betrunken?

Vor über einem Jahr habe ich denen bereits geschrieben, dass es einen verdammten Bug gibt. Der Speicher taktet sich bei 144Hz auf dem Desktop nicht korrekt runter...der läuft fröhlich und munter auf 5.5Ghz. Bei 120Hz ist der Problem verschwunden.

Was ist das für ein Schund?! Fällt das keinem auf? oO

Ich hätte echt gerne mal eine Rufnummer wo ich mal mit jemandem vom Support oder was auch immer reden kann.
 
hrafnagaldr schrieb:
...Und auch wenns gedauert hat, nun laufen halt auch die Singlethreaeed / hohe IPC Spiele gut. Soll mir recht sein. Wenn Spiele die Kerne ordentlich genutzt haben, wars eh nie ein Problem....
Also lag es doch an dem "Wundertreiber" & keiner Intel-CPU?
Schade, denn es las sich zuerst so ...^^
Bei mir läufts sehr viel besser. Lag aber wohl dran, dass es auf reinen AMD Plattformen nie wirklich gut lief
....Na ja, vermutlich Peanuts & kaum der Rede wert. :D
 
eXEC-XTX schrieb:
Unglaublich, viele Jahre haben Magazine und Spieler eine Downsampling-Technik gefordert, nie ist was passiert. Uns kaum präsentiert nvidia diese Technik kopiert AMD ganz dreist innerhalb von ein paar Wochen genau dieses Feature. Exakt wie bei G-Sync und bei den Mikrorucklern.

AMD betreibt ganz übel diese Kopiererei, aus eigenem Antrieb kommt da überhaupt nix (Außer Mantle). Jahre lang werden alle Anfragen ignoriert und kaum präsentiert die Konkurrenz dieses Feature, wird kopiert, dass sich die Balken biegen.

Ich spiele derzeit AssassinsCreed 2 mit 5120x2880(4x DSR mit 0% Smoothness) und 8xMSAA zusätzlich und liege trotzdem im 59FPS-Cap, einfach toll, komplett kantenfrei und ein merkliches Upgrade. Aber bei AMD wurde der Kopierer angeworfen uns in einem halben Jahr gibt es das auch, nicht ganz so gut (bilinear anstatt Gauss), kaum kompatibel (nur 285/290), weniger Auswahl (Wo bleibt 5120x2880 bei WQHD?), aber in der Feature-Liste mit drin. Großes Kino, tolle Leistung

Du hast so recht, das sind traurige Nachahmer. Ist mir bei G-Sync schon aufgefallen aber das hier is einfach nur lächerlich. Als hätten die keine eigenen Ideen.
 
Zurück
Oben