Test Grafikkarten 2014 im Vergleich – Sommerausgabe

Mr.Seymour Buds schrieb:
Als mein GPGPU Code läuft auf Kepler schneller. Ohne Codeänderung. Wie kann das sein?

das war jetzt nicht auf amd bezogen da amd bei den restlichen 95% anwendungen schneller ist.

sondern auf fermi bzw. thermi,
ein 470 sli 2 way(neupreis damals ca.580 - 620euro) steckt im compute eine titan(890-1000euro) in die tasche
bzw. ein 465 sli 2 way zieht mit der titan fast gleich

oder noch ein weing tiefer, eine 570@ 980mhz zieht die 690 in compute ab(soviel mal zum consumer kepler)
 
Zuletzt bearbeitet:
Vorschlag für solche Tests:

Nehmt auch immer die Toppmodelle aus den alten Serien dazu z.B. eine GF 680, 580, 480...etc. Dann können die Leute die noch eine "alte" Karte haben sich mehr unter der Leistung der aktuellen Modelle vorstellen.
 
Das die 295x2 bei Bluerays über 100w zieht ist echt heftig. Kann die Karte die kerne nicht unabhänig Takten?
 
Kleiner Kritikpunkt: Wie wär's, wenn ihr auf UHD das AA deaktiviert? Die Frameraten sind sonst kaum erträglich. In der Praxis würde man wohl lieber ohne AA spielen in UHD und wirklich "verkantelt" sieht das sicher auch nicht aus.
 
Würde ich auch sagen. Statt in UHD ständig die unspielbaren fps anzugeben, einfach mal UHD@max ohne Lantenglättung testen. Und dann vl noch eine Stufe darunter auch ohne AA.
Wir haben hier UHD, also quasi FullHD mit massivem Downsampling, was besser oder gleich wie SSAA ist (es wird eine deutlich höhere Auflösung berechnet und herunterskaliert), was wiederum besser als MSAA ist usw.
Folglich: UHD müsste ähnlich FullHD mit 4*SSAA sein. Von der Bildqualität und vomPerformanceverlust her.
Ich weiß natürlich, dass man so nicht rechnen kann und darf.
Also: UHD bitte ohne AA testen, da man das da ohnehin nicht merken wird und die fps wahrscheinlich fast halbiert!

Minimum FPS wären schön gewesen, und alle verfügbaren mantle Benchmarks gesondert ausgewiesen.

Ja, zm eine gute Custom Variante von GTX770 undnR9 280X, dann GTX780 und R9 290 und dann GTX780 Ti und R9 290X wären schön gewesen. Kommt vl noch bzw werden innden neuen Parcours integriert.
Das CM 690 III Gehäuse im Test finde ich super, da ich mit meinem CM690 II jetzt super Vergleichswerte habe.
Leider ist meine GTX660Ti nicht dabei, jedoch gibtandie glaub ich nimma neu oder?
Gibt nur noch 660, 760, 770, 780 usw. 660Ti, 670 und 680 werden neu nimma verbaut oder?

Ansonsten vielen Dank für das neue Roundup! :)
 
Find ich gut die Übersicht. Wobei ehemalige High-End auch nett wären.

Die ganzen Jahre sind schon interessant. Zur 5870 hatte AMD damals die deutlich besseren, seit der 580 bin ich von Nvidia wieder voll überzeugt, die bringen jedes Jahr richtig Klasse Karten auf den Markt. Bin gespannt wies im kommenden Jahr weiter geht.:)
 
ranzassel schrieb:
Was ja auch logisch ist. Man will ja die Leistungsfähigkeit der Hardware testen, nicht die der Software. Wenn du AMD mit Mantle testest müsstest du das auch mit Nvidia machen. Was mangels Unterstützung nichts wird.

Du testest ja auch nicht zwei Supersportwagen und ziehst beim einen die Serienbereifung und beim anderen Fahrradreifen auf. :cool_alt:
Dein Kommentar entbehrt jeder Logik.
Natürlich fließt IMMER die Software mit ein, so eine Graka braucht nun mal einen Treiber, eine API, ein Spiel/Programm...etc.

Das Mantle hier ausgelassen wurde ist tatsächlich ein Mangel. Natürlich ist es AMD Only. Ist es AMDs Schuld? Nein. nVidia weigert sich eben aktiv Mantle zu unterstützen. Warum tut nVidia das? Tja, das weiß wohl nur nVidia. Es ist ja nicht so das AMD nVidia den Zugang zu Mantle verwehren würde(wie es nVidia bei PhysX macht)

Dein Vergleich mit den Sportwagen wären passend wenn man den Treibstoff heranzieht. Der eine fährt nur mit Super, der andere kommt auch mit was weiß ich... Ethanol und fährt dadurch schneller.
Wenn man jetzt beide nur mit Super Testet wäre das genau so unpassend, da der große Vorteil des anderen Wagens in der Möglichkeit des besseren Treibstoffs liegt.
 
Jede aktuelle Karte mit 3 passenden Anschlüssen. Auch noch höher aufgelöst. Ist ja nicht so dass DVI seit 10 Jahren schon 2560x1600 mit 60hz schafft und meistens mit DP gepaart wird.
 
HisN schrieb:
Jede aktuelle Karte mit 3 passenden Anschlüssen. Auch noch höher aufgelöst. Ist ja nicht so dass DVI seit 10 Jahren schon 2560x1600 mit 60hz schafft.

na dann....
...ist es ja löblich!

aber welche Karte ist denn nun die Sparsamste von Allen?
 
Die kleinste Keppler mit passenden Anschlüssen oder zwei Office 20 Euro Karten mit 2xDVI, wenn man davon ausgeht das AMD nicht in den 2D geht und man kein VS/EF Set betreiben möchte.
 
Danke für den Test CB.

Ihr habt viel Zeit in ein Roundup investiert, Respekt erstmal.

Ich hätte dies aber erst in 2-3 Monaten gemacht, wenn die neuen Gpus am Start sind.
Dann hätte man nen guten Vergleich ob man Auslaufmodelle nehmen oder eben zur nächsten Generation greifen sollte.
Somit ist dieses Roundup leider in paar Wochen kaum mehr relevant.

Unterm Strich hat sich doch in den letzten Monaten am Gpu Markt kaum etwas getan.

Das neue Testszenario finde ich gut.

Toll fände ich allerdings, wenn diverse Customs (sowohl AMD als auch NVIDIA) mit gemittelten Taktraten am Start wären.
Gtx 780 mit 900 MHz finden sich in den wenigsten Gehäusen.
Unzählige Customs machen im Mittel Out of box 1100 MHz und sollten mitgetestet werden.

Klar wäre dies ein Mehraufwand, würde aber die Realität widerspiegeln bzw Kaufentscheidungen erleichtern.
 
@Mantle-Diskussion
Eine wichtige Frage ist für wen die Tests geschrieben werden. Ein Hardware-Nerd will möglicherweise die Rohleistung zweier Karten miteinander vergleichen. Dann sollten die Unterschiede im Testprozedere zwischen den Herstellern möglichst klein gehalten werden.
Ein Käufer will aber doch eher wissen welche Leistung er erwarten kann wenn er die Karte in seine eigene Kiste einbaut. Als Kunden wäre es mir völlig egal ob da DirectX, Mantle oder vielleicht OpenGL verwendet wird. Wichtig ist wie schnell das Spiel "im realen Leben" läuft.

Ich bin der Meinung die Tests sollten möglichst wie in der Praxis sein, d. h. AMD wird mit Mantle getestet. Evtl. sollte man sogar bei Nvidia mit Physix testen und zwei kurze Videos als Veranschaulichung an den Test dran hängen.
 
Warum schafft es CB einfach nicht, endlich mal einen objektiven Test abzuliefern? Warum gibt es immer was Erhebliches zu kritisieren, was eben an der Objektivität zweifeln lässt.

Ich frage mich schon seit langem, was dieser 780 Ti "Max" Quatsch soll. Soweit ich weiß, werden dabei die Power- sowie Temp-Targets angehoben. Bei der 290X max ist wohl der Performance Mode gemeint. Warum gibts denn keine 780 (Max)? Wenn Nvidia meint, seine Karten niedrig takten zu müssen um sie bzgl. der Leistungsaufnahme besser aussehen zu lassen, dann muss selbstverständlich auch mit den Standardtaktraten getestet werden. :freak:
Die 1000 MHz der 290X ist doch auch ihr Standardtakt!
 
Ganz einfach, weil ein paar Leute mal meinten, CB wäre ja sooo nVidia-lastig, und seit dem folgen alle Leute, die was gegen nVidia haben, wie Leute nun mal was gegen Marken haben. Das ist ein objektiver Test, man will möglichst gleiche Testbedingungen schaffen, deswegen Referenzmodell, Custom-Modelle bringen am Ende einen ziemlich gleichen %-Satz Mehrleistung, also bleibt die Vergleichbarkeit bei geringeren Aufwand.
Und CB hat doch mit Mantle getestet, das lassen die AMD-Fans einfach außen vor und unterstellen falsche Tests und sonst was.

Wieso sich jedesmal was finden lässt? Weil sich AMD-Jungs unberechtigt behandelt fühlen, weil sie nun mal oft unterliegen oder gleich auf sind, aber ihre Karten sind ja viiieeell besser! Also finden sie was.
 
zeedy schrieb:
Warum schafft es CB einfach nicht, endlich mal einen objektiven Test abzuliefern?
Willkommen bei Nvidia-Base.

Wenn du Objektive GPU Tests suchst, dann bist du hier bei CB absolut falsch. Objektive Tests gibts nur bei PCGH, HT4U, usw.
 
hmm ja sehe auch das der Test realtiv problematisch ist, vieles wird nur halbherzig beruecksichtigt, klar man kann sich die zumindest teilweise echten antworten mit glueck denken.

Nennen wirs so, es wurde oft nur die halbe Wahrheit bzw eine Sicht der Dinge genannt:

1. ein wichtiger Punkt, man kauft sich karten um ruckelfrei so viele spiele wie moeglich zu spielen, daher spielt ein test ob in einem setting in einem alten spiel nun 60 oder 70 fps raus kommen keine rolle, sehr wohl aber bei einem spiel wo die eine karte 27fps hat die andere aber 33fps. Wobei hier streng genommen ja sogar die Minimal-fps interessanter waeren, aber gut man kann ein wenig auch mit den average zahlen auf die minimals spekulieren.

2. man kauft heute in der Regel ne Grafikkarte die man nicht nur ein Monat hat um die aktuellen Spiele zu spielen, sondern auch die die in ein paar Monaten bis hin zu nem Jahr raus komen, daher sind auchs piele interessanter die eben auf die neueren Spiele hin deuten, so ist z.B. watch dogs schon interessant da es so ziemlich das einzige der hier aufgefuehrten spiele ist die bei konsolen explizit fuer die nextgen programmiert wurde.

Wenn man jetzt mal schaut bei welchen spielen eine R280x und eine gtx770 bei fullhd an der 30fps grenze scheitern drohen und alle anderen ignoriert:

Games ueber 40 fps beide karten:
Anno 2070, Battlefield 4, Bioshock, Call of Duty, Company of Heroes, Grid, Hitman, Metro, Risen 2, Thief, Tomb Raider, Far Cry 3

Interessante games:
Ascen Creed, Crysis 3, Rome 2, Watch dogs.

So schauen wir mal wer hier wieviel % schneller ist:

HD 280X vs GTX 770
Assassins Creed -19%
Crysis 3 -3%
Rome 2 15%
Watch Dogs 15%

* Hab die werte von AA genommen SSAA ist dann eh nimmer spielbar

das macht dann immerhin (30 - 22) / 4 = 2% mehr speed in spielen in denen es drauf an kommt. Aber noch interessanter ists wenn man sich die Werte genau an schaut, dank der R280 kommen 2 Spiele in die spielbarkeit ( mit den settings) bei nvidia nur eines, die 3% machen da keinen etnscheidenden unterschied das ignorier ich mal bei crysis 3.

Ok nehm ich mal so hin auch wenn ich erwaehnen moechte das sich Ubisoft mit dem Assassins Creed team (sofern das noch die gleichen sind) schon einen guten Ruf mit AMD unterstuetzung und nachtraegliche patches die amd ausgebremst haben bekannt geamcht haben. Will das nur mal erwaehnen, aber ok ignorieren wir das.

Bleiben 2% mehr speed bei spielen im Schnitt wo es drauf an kommt, auch wenn diese % zahl nicht so viel aussagt, 2 von 3 spielen hilft es > 15%. aka macht es mehr oder weniger spielbar.

Wenn ich crysis 3 noch aus der wertung nehmen wuerde da die 3% das spiel auch nicht spielbarer macht bzw der unterschied sehr klein ist und ein Messfehler sein koennte, komm ich auf 3 bis 4% unterschied. Gut auf diesen Unterschied (2%) kommt zufaellig hier auch CB in ihrem ergebnis.

Was gibt es noch zu beachten.

- Die gtx 770 verbraucht unter last 66 Watt weniger
- Die Radeon kostet 50,- Euro weniger.

Soweit so gut, jetzt kommen wir zu dem was ich hier die Halbe Wahrheit meine:
Zu dem Stromverbrauch gilt zu sagen,
1. ja wie erwaehnt verbraucht ein chip mit besserer kuehlung weniger strom hier scheint wohl bei amd ein groeserer spielraum nach unten zu sein wie bei nvidia, allerdings denk ich nicht das dieses die 66Watt weg zaubert aber immerhin ein Teil davon.
2. Amd bietet Mantle support, ich habe ja gesagt das wohl die spiele die in zukunft raus kommen wichtiger sind wie die heutigen, wenn man heute eine karte kauft, denke so denken die meisten? Es werden jetzt nicht ploetzlich 90% mantle spiele raus kommen, aber es sind durchaus einige titel angekuendigt, es werden prozentual mehr werden. Fuer diese gilt dann entweder das man sich noch mehr geld beim cpu kauf sparen kann, weil eine kleinere cpu reicht und man spart beim Stromverbrauch der cpu (hier waere stromverbrauch bei battlefield 4 sehr interessant), oder selbsst wenn man ne monstercpu trotzdem kauft, spart man trotzdem stromverbrauch da eine cpu die nicht so stark belaastet wird auch weniger verbraucht.
3. AMD hat mehr Ram verbaut, das erlaubt einem nicht nur texturedetails im einen oder anderen spiel in der zukunft heute eher mit mods um eins hoeher zu aktivieren, es ist auch einer erklaerung fuer den mehr strom verbrauch, den RAM verbraucht strom.

Ich hatte mir mal ne HD4770 mit 512mb ram gekauft, vor meiner jetzigen, ich hab mich fuer immerwieder in arsch gebissen, da einfach 1024 recht schnell standard war und ich deshalb spiele auf mittel spielen musste oder texturen eins zurueck schalten musste.

== (mein) FAZIT ==

Von daher wuerde ich sogar ohne die genannten Mantle vorteile klar zur Radeon raten, BEI DIESEN 2 zur auswahl. bei den anderen karten muss man nochmal schauen.

die 3gb ram einfach als nichtfeature ab tun, halte ich fuer sehr naiv, der mehrpreis negiert zumindest aufm konto das es sparsamer ist.

Man muss halt fuer sich genau schauen, was einem wichtig ist, z.B. bin ich mir sicher das der STromverbrauch bei Battlefield dank der entlasteten CPU deutlich geringer ist wie bei Anno, wenn man also vor hat das naechste halbe jahr 5h Battlefield pro tag zu spielen, sollte man mit ner amd karte gut bedient sein.

Aber selbst wenn ich die 66W mal fuer gegeben nehme komme ich auf ca. 10h pro tag spielen im Schnitt um nach 1 Jahr auf ca. 50 euro zu kommen.

http://www.strom-rechnen.de/rechner.html Wer hat so viel zeit zu spielen? Realistisch wird also kaum jemand selbst in 2 Jahren ueber die Stromkosten den Preisunterschied wieder wett machen, und das wo die HD 280X wegen mehr ram nunmal die karte ist die mehr potential hat und eben auch schon in dem test ein paar prozent besser war.
 
Zuletzt bearbeitet:
Für mich ist das schon eine wichtige Frage und der Grund mich von der 280(x) bzw. von der AMD 2xx Generation abzuwenden. Ich verwende ein Dual Monitor System zweier nicht baugleicher Monitore. Und schau ich mir mal die Verbrauchswerte an der Stelle an verschlägt es mir die Sprache. Ich hab das mal ausgerechnet:

Mich würde nur eine GTX770 4GB interessieren alles andere ist Blödsinn. Als Laufzeit nehme ich die Garantiezeit von 2 Jahren an. Ich denke das ist ein guter Wert im Schnitt. Tägliche Laufzeit beträgt 12h davon Idle: 8h/d Last: 4h/d

Verbrauch: Idle - Last (Systemverbrauch)
GTX 770 4GB: 72W - 280W
Radeon 280(x): 125W - 346W

Kosten im Jahr bei einem Strompreis von: 0.26€/kWh
GTX 770 4GB: 54€ idle + 106€ last = 160€
Radeon 280(x): 94€ idle + 131€ last = 225€

Anschaffung + Unterhalt für 2 Jahre
GTX 770 4GB: 310€ + 160€ + 160€ = 630€
Radeon 280(x): 230€ + 225€ + 225€ = 680€

http://www.stromverbrauchinfo.de/stromkostenrechner.php
https://www.computerbase.de/2014-08/grafikkarten-2014-im-vergleich-sommerausgabe/6/

Ich hoffe ich hab mich nicht verrechnet...

Das sind also reale 65€ Mehrverbrauch im Jahr bei der Radeon 280x. :freak: Das kann mir jetzt keiner wegdiskutieren.
Natürlich ist mir bewusst, dass diese Rechnung ein Spezialfall ist, schließlich setze ich auch 2 Monitore ein und sitze viel am PC. Nicht jedem ist der Verbrauch wichtig. Aber ich denke das sind gar nicht so wenige die eine ähnliche Nutzungsstatistik haben. Da mir 310€ zu viel für eine eine Grafikkarte ist liebäugele ich deshalb gerade mit einer GTX 760 4GB für 225€ die Leistung liegt auf Radeon 280 Niveau und der Verbrauch im Idle stimmt und erzeugt damit kein Loch in der Stromabrechnung. Oder sogar eine 750 Ti dann muss ich aber schon alle Augen zudrücken, damit die Stromersparnis mir das entgangene Spielvergnügen ersetzt.

Aber solange die AMD Karten einen solchen katastrophalen Idle Stromverbrauch mit 2 Monitoren haben, kann ich davon kleine in Betracht ziehen. Verbrauch unter Last ist mir Wurst, aber im Idle, also der meisten Zeit in der ich normal am PC im 2D arbeite, gibt es keine Entschuldigung.
 
Zuletzt bearbeitet: (added conclusion)
Aber natürlich wurde BF4 mit Mantle getestet...:rolleyes:

So ein Blödsinn!

Sagt doch einfach dass die Werte vom DX-Wrapper kommen und gut ist. Warum die Leute für dumm verkaufen wollen obwohl das Gegenteil leicht nachzuweisen ist?
 
Zurück
Oben