Test Grafikkarten: 17 × AMD Radeon und Nvidia GeForce im Vergleich

Mohd.Rafi schrieb:
naja ein weiterer aufgebohrter grafikkarten test für technophile mit 1500 euro pc und 3 monitoren dran. für gewöhnliche pc spieler ziemlich nutzlos.

Aha. Und Du bist Dir sicher, dass Du nicht selektiv gelesen hast?

psYcho-edgE schrieb:
Ähm, gibt es einen Grund dafür, dass BF4 aus dem Parcours raus ist? Das Spiel braucht nach wie vor viel Leistung und ist aktuell. O.o

Das Spiel hätte ich hier auch gerne gesehen. Gerade auch noch in Bezug auf die Mantle-Performance.

McMOK schrieb:
Schöner Test, aber was heißt "OC-Modell"? Schreibt doch endlich mal die Taktraten mit dazu!

Ja, bitte! OC ist eben relativ. Meine Asus 290er sollen laut AMD mit 947MHz laufen, Asus mit ein Werks-OC auf glatte 1.000MHz und ich kann sie locker auf 1.100 ohne Vcore-Erhöhung bringen, mit mehr Voltage sind 1.200 MHz drin. Was ist nun OC?

PiEpS schrieb:
Dann fehlt mir die TITAN Black im Vergleich, wäre interessant zu sehen inwieweit die 780ti mit ihren 3gb Speicher eingeschränkt wird und wie sich die Black im Vergleich zur 980 verhält. Als zweite Karte fehlt mir die 290x mit 8GB im Vergleich, hier gilt das selbe wie bei der Titan Black. :cool_alt:

Ich kann schon verstehen, dass man nicht alle Karten am Markt testen kann. Gerade die Titans sind doch exotisch und die alten Titan bzw. Titan Black nach dem Auslaufen einfach nicht mehr relevant. Die Titan X als Leistungsspitze sollte jedoch drin bleiben, alleine um zu zeigen, wo derzeit das (Single-)Maximum liegt.

schallundrauch schrieb:
Kann mir mal wer verraten, warum zwischen der 290 und der 290X kaum ein Unterschied besteht leistungstechnisch?

Weil sich das mehr an Shadern (ca. 2800 vs. 2500) in der Praxis kaum auswirkt. Du hast eben nie 100% Auslastung aller Shader. Da limitiert immer mal was anderes, beispielsweise der Rasterizer oder die Tessellation-Units, die bei beiden Karten in gleicher Anzahl vorhanden sind.
 
Also ich finde die 970er ist trotz der 3,5-GB-Verarsche immernoch die beste Karte in P/L/Strom-Verhältnis. Ein Spiele-PC sollte nicht über 250W verbrauchen... maximal 300W. Alles darüber ist unangebracht und bringt auch kaum mehr FPS.
 
Top danke, oke 1126 Mhz sind ja ziemlich wenig füre ne T'X und 1030 Mhz für ne 290x auch.
 
incurable schrieb:
Die Taktraten sind "ausgewürfelt,"

So langsam reicht es mit den haltlosen Diffamierungen von dir hier auch mal. Es handelt sich um tatsächliche Taktraten, die in unserem Setup bei dieser Konfiguration im Gehäuse auftreten. Da wurde nichts gewürfelt, sondern aufwendig ermittelt - bei jeder Karte. Wenn dir diese Methodik nicht passt, ist das etwas anderes als uns "Gewürfel" vorzuwerfen.
 
Lieber Wolfgang, endlich wird die r9-290 OC richtig angeordnet, nämlich direkt vor der schlapperen GTX 970. Großes Lob an die Ausdauer um all diese Karten erneut zu testen (zum Glück ohne BF4, obwohl es die o.g. Karte weitergetragen hätte).

Das Lob fällt aber spätestens gegen Ende des Berichts wieder ins Nirvana: Wieso wird die Temp/Lautstärke nicht an die CB-Empfehlung gekoppelt? Du sagst selber die Serien-290 sind nicht mehr zu Marktpreisen erhältlich und führst diese trotzdem als Referenz im Vergleich an. Ich finde , da gehört ebenfalls eine OC/Partnerkarte rein, alleine um der Sache einen roten Faden zu verteilen. Sicherlich haben die Kapazitäten nicht gereicht, aber ein wenig Gemeinwohl hätte nicht geschadet an dieser Stelle ;-) VG
 
Cool, dass ihr mal die 580 und die 6970 mit im Programm hattet, da kann man als Altgrafikkartenbesitzer mal abschätzen ob sich der Neukauf lohnt :).
 
Bei der nächsten Generation werd ich meine 660ti wohl in Rente schicken...
 
Frank schrieb:
So langsam reicht es mit den haltlosen Diffamierungen von dir hier auch mal. Es handelt sich um tatsächliche Taktraten, die in unserem Setup bei dieser Konfiguration im Gehäuse auftreten. Da wurde nichts gewürfelt, sondern aufwendig ermittelt - bei jeder Karte. Wenn dir diese Methodik nicht passt, ist das etwas anderes als uns "Gewürfel" vorzuwerfen.
Ach, und das habt ihr dann mit jedem getesteten Spiel durchprobiert? Warum verwendet ihr dann nicht die echten Daten, anstatt der manuell veränderten Ergebnisse?

Die Idee, bestimmte Taktraten mit gewisser Software in einem vorhandenen System zu ermitteln, und diese dann blind über einen Spieleparcour zu schicken ist einfach im Anbetracht der aktuellen Taktautomatiken nicht zeitgemäß.
 
Also mir fehlt BF4 ungemein als Referenz da ich Bf3/4/HL spiele.
Ist es möglich das Mantle das Ergebnis verzerrt hätte zugunsten der AMD`s?
Die sind mit Mantle meist 15% schneller.
Gruß
 
Der neue Testparcours klingt klasse! Ich freue mich schon auf den Test.
 
incurable schrieb:
Ach, und das habt ihr dann mit jedem getesteten Spiel durchprobiert? Warum verwendet ihr dann nicht die echten Daten, anstatt der manuell veränderten Ergebnisse?

Die Idee, bestimmte Taktraten mit gewisser Software in einem vorhandenen System zu ermitteln, und diese dann blind über einen Spieleparcour zu schicken ist einfach im Anbetracht der aktuellen Taktautomatiken nicht zeitgemäß.

Cool, ich freue mich auf deinen nächsten Bench mit 17 * Grafikkarten à 5 Partnerkarten (also 85 Karten, wundervoll da hab ich endlich was zu lesen :) )

Ich finde die Methode gut, das runtertakten ist bei allen Karten ähnlich realisiert genau wie die Taktraten, so kann man mMn ruhig einen Durchschnittswert nehmen. Das hier war ja schließlich auch nur ein allgemeiner Bench, für die jeweiligen "Roundups" wünsche ich mir natürlich die jeweiligen Taktraten.
 
Zuletzt bearbeitet:
SoilentGruen schrieb:
Ein Spiele-PC sollte nicht über 250W verbrauchen... maximal 300W. Alles darüber ist unangebracht und bringt auch kaum mehr FPS.

*lol* -




Wenn du so verfahren willst, tue es. Es gibt Ansprüche die sich von deinen Unterscheiden. Genauso wie es Leute gibt, denen der Strompreis zum Hobby nicht interessiert, wenn allein die GPU mehrere Hundert Euro kostet. Wer sich die Stromkosten nicht leisten kann, soll sich aus dem PC-Bereich verpissen ( sorry wenns zu hart klingt )...
 
Zuletzt bearbeitet:
Ein wenig Kritik:

Warum ist Battlefield 4 rausgeflogen, ohne Battlefield Call of Heist dafür aufzunehmen? Die Battlefield Reihe gehört zu den wichtigsten online Shootern und Teil 4 ist auch weiterhin anspruchsvoll und beliebt und bietet nebenbei noch Mantle, das man zusätzlich testen kann (und da liegt wohl der Hund begraben :freak:)

Anno 2070:

Noch viel schlimmer! Anno 2070 bietet sehr interessante Ansprüche, die sonst so nicht im Benchmark sind. Gerade in höheren Auflösungen ist es auch weiterhin kaum zu stemmen und stellt hohe Anforderungen an CPU und GPU. Auch hier ist noch lange kein Nachfolger in Sicht und auch nichts vergleichbares. Anno wäre für mich ein wichtiger Grund aufzurüsten, Spiele ich es doch gern mal exzessiv mit Freunden - bis zur totalen Aufgabe des Rückens/Hinterns und der Konzentration :lol:
 
Scythe1988 schrieb:
Weil man aus den Tests weiß, dass die r9 290 eine höhere Spannung anliegen hat, damit sie wärmer und letztendlich nicht schneller als die r9 290x wird. Wieso sollte man das nochmal extra erwähnen? Das ist bekannt.

Hast du dazu auch eine Quelle oder ist das einfach nur Blah?
 
BlauX schrieb:
Wenn du so verfahren willst, tue es. Es gibt Ansprüche die sich von deinen Unterscheiden. Genauso wie es Leute gibt, denen der Strompreis zum Hobby nicht interessiert, wenn allein die GPU mehrere Hundert Euro kostet. Wer sich die Stromkosten nicht leisten kann, soll sich aus dem PC-Bereich verpissen ( sorry wenns zu hart klingt )...

Da muss ich dir Recht geben. Ist wie mit Autos der eine Fährt 3 Liter Lupo der andere nen V8 mit 20 Liter verbrauch. Bei WQHD oder 4k verbraucht die Kiste mal locker mehr als 300 Watt. Alleine meine Cpu @Last verbraucht mehr als 300 Watt das ohne Grafiklast. Stromkosten sind so wayne.
 
psYcho-edgE schrieb:
Cool, ich freue mich auf deinen nächsten Bench mit 17 * Grafikkarten à 5 Partnerkarten (also 85 Karten, wundervoll da hab ich endlich was zu lesen :) )
Das wäre natürlich ideal :cheerlead:, aber mein Vorschlag ist genau eine repräsentative Partner-Karte und (falls vorhanden) das Referenzmodell jeweils mit Werkseinstellungen zu testen. (würde also sogar Arbeit sparen :evillol:)
 
hübie schrieb:
Hast du dazu auch eine Quelle oder ist das einfach nur Blah?

https://www.computerbase.de/2013-11/amd-radeon-r9-290-test/7/

"Wie die Messungen zeigen, liegt die Spannung der GPU bei der R9 290 mitunter deutlich über der der R9 290X. Dies führt nicht nur zu einem höheren Verbrauch sondern auch zu einer höheren Abwärme und somit zu einem lauteren Kühlsystem. Die höhere Spannung erklärt auch, weshalb die R9 290 schneller als die R9 290X an das Temperaturlimit stößt und nicht mehr mit maximalem Takt von 947 MHz arbeiten kann."

Um nur mal den Test hier von CB zu zitieren. Also kein "blah" ;-) AMD wollte die r9 290 einfach unattraktiver machen, denn wenn wir ehrlich sind, gibt es quasi keinen Unterschied zur r9 290x und r9 290, lediglich der Preis hat sich teilweise um 100€ unterschieden. Also lässt man die Karte schneller ins Templimit laufen und lauter werden --> die r9 290x steht besser da
 
Frank schrieb:
So langsam reicht es mit den haltlosen Diffamierungen von dir hier auch mal. Es handelt sich um tatsächliche Taktraten, die in unserem Setup bei dieser Konfiguration im Gehäuse auftreten. Da wurde nichts gewürfelt, sondern aufwendig ermittelt - bei jeder Karte. Wenn dir diese Methodik nicht passt, ist das etwas anderes als uns "Gewürfel" vorzuwerfen.

Manche Kommentare sind tatsächlich sehr herablassend und respektlos formuliert. Da wäre es sehr angebracht auch mal durchzugreifen (in welcher Form auch immer).

Nichtesdestotrotz wäre ein bisschen mehr Transparenz, wie die OC-Taktraten zu Stand kamen, tatsächlich hilfreich.

BlauX schrieb:
Wenn du so verfahren willst, tue es. Es gibt Ansprüche die sich von deinen Unterscheiden. Genauso wie es Leute gibt, denen der Strompreis zum Hobby nicht interessiert, wenn allein die GPU mehrere Hundert Euro kostet. Wer sich die Stromkosten nicht leisten kann, soll sich aus dem PC-Bereich verpissen ( sorry wenns zu hart klingt )...

Dann sollten diese nervenden Stromkostennörgler doch bitte auch die Ökologie berücksichtigen und ihren Stromanbieter wechseln. Atomstrom sollte man nicht unterstützen ;)
 
Könnte man anstatt "OC-Modell" evtl das genaue Modell erwähnen? Oder steht das vllt irgendwo und ich habs nur übersehen?
Stutzig macht halt, dass das OC-Modell der 980er 10% zulegt, während das der 970er nur 4% zulegt.

Oder hattet ihr garkein "OC-Modell" sondern habt die vorhandene Karte nur übertaktet, bzw die vorhandene Karte auf Ref-takt gebracht?
 
Herausragend gut für mich in der neuen Vergleichsmethodik:
der Vergleich und die vielen Benchmarks zwischen i5-2500 und i7-4770 :daumen: :daumen:

Wenn ihr das beibehalten könnt bei zukünftigen Tests, wäre klasse. Ich bin selbst immer noch auf einem i7 860 unterwegs - also eine 5 1/2 Jahre alte CPU - plus eine GTX 970 OC. Immer wieder frage ich mich mal, ob es nun Zeit ist den Prozi aufzurüsten. Aber die Unterschiede von 2, 3, 5 % etc. sind mir aktuell immer noch zu klein, um upzugraden.

Far Cry 4 ist fast schon erstaunlich bei den Benchmarks, typischerweise sollte ja gerade ein Open-World Spiel überdurchschnittlich von einer stärkeren CPU profitieren. Tut es aber nicht, die Unterschiede sind ja lediglich marginal zwischen i5-2500 und i7-4770.
 
Zurück
Oben