Test Test: 17 Grafikkarten im Vergleich

@Konti:
Jaaaaaa :)
Ich sagte generell aus P/L Sicht. Dein dargestelltes Problem ist zwar existent, aber nur bei einer überschaubaren Anzahl an Spielen.
Ich hab ne nVidia. Ich wechsel fast jede Generation zwischen Intel/AMD oder nVidia/AMD. Je nach Leistung eben.
Aber hier ist P/L bei AMD einfach besser, also generell, bis auf die Problematik.
Das zeigt auch der Test.
 
Zuletzt bearbeitet:
@ Lubi Jop, man kann mit einer 7970 BF3 in 5760 x 1080 spielen, jedoch nur auf hoch und ohne AA (ein Freund hat diese Konfig)
 
Zuletzt bearbeitet:
Fire'fly schrieb:
Vor ein paar Jahren wurde eine 5770 angepriesen als das P/L Wunder und hier wird einer 7770 lediglich das "unter 100 EUR" Prädikat ausgegeben? Das ist seltsam oder? Schließlich ist diese Generation gut 20-30% schneller und vergleichbar mit einer 6850 die quasi eine Liga höher mitgespielt hat.

Sind in so kurzer Zeit die Anfoderungen gestiegen, die Spiele gar aufwendiger geworden, daß eine 6850/7770 damit nicht mehr klarkommt und 4xAA ein Tabuthema ist?

Vor ein paar Jahren war 1680x1050 das Maß der Dinge, heute ists FullHD und höher. Wenn z.B. in Risen die HD7770 unter 1.920x1.080 ohne AA nur 23 FPS erreicht und die HD7850 fast schon das Doppelte, wirds schwer, die 7770 für diese Auflösung noch zu empfehlen.


TheManneken schrieb:
Ich würde gerne wissen, wo ich beim Rating - 1.920 × 1.080 4xAA/16xAF meine "steinzeitliche" GTX 560Ti einordnen müsste. :/

Gemäß den letzten Tests liegt die GTX 560 Ti da etwa mittig zwischen der GTX 650 Ti und der HD 7850.
 
freyny80 schrieb:
@NeoGeo

Changelog Catalyst 13.2 Beta 5:
"Significantly improves latency performance in Skyrim, Borderlands 2, and Guild Wars 2"

Das Video wurde mit dem alten 12.11 Beta 11 erstellt...

Und was bringt der Treiber 6-12 Monate nach Spielrelease ???
Vielen gar nichts.
Wer wartet schon Monate bis von AMD halbwegs brauchbaren Treiber kommen.
 
Zuletzt bearbeitet:
Bei dem für mich wichtigsten Game (BF3) sieht das Diagramm gar nicht so gut für die GeForce aus...

BF3 kam im November 2011 raus.
Wir haben jetzt 2013.

AMD bringt einen brauchbaren Treiber für BF3 ein Jahr nach Release.
Da fühlt man sich doch ziemlich verarscht von AMD.

Das AMD mit einem so miesen Treibersupport einen Verkaufsrückgang verzeichnet wundert mich nicht.

mercury_nvidia_nb_gpu_mkt_share.png
 
Zuletzt bearbeitet:
NeoGeo schrieb:
BF3 kam im November 2011 raus.
Wir haben jetzt 2013.

AMD bringt einen brauchbaren Treiber für BF3 ein Jahr nach Release.
Da fühlt man sich doch ziemlich verarscht von AMD.

Das AMD mit einem so miesen Treibersupport einen Verkaufsrückgang verzeichnet wundert mich nicht.
...
Was war an dem Treiber für BF3 falsch oder unbrauchbar?

Ich zocke seit dem release mit einer 5870 @ fullHD BF3 problemlos. Aber Danke für den Flame.:freak:
 
Merle schrieb:
Ich sagte generell aus P/L Sicht. Dein dargestelltes Problem ist zwar existent, aber nur bei einer überschaubaren Anzahl an Spielen.
Das Preis/Leistungs-Rating im Test bezieht sich nur auf die FPS.

Die FPS haben jedoch keinerlei Aussagekraft darüber, wie flüssig ein Spiel läuft, sofern man nicht weiß, wie die Frames verteilt sind.

Man müsste wirklich mal einen umfassenden Test mit mehreren, Spielen und Grafikkarten machen (und am besten auch noch mit unterschiedlichen MBs + CPUs).



Wie gesagt, eigentlich müsste man die in regelmäßigen Abständen auftretende maximale Zeitspanne zwischen den Frames messen und diese per Balken plotten und zur Bewertung heran ziehen. Das wäre dann aussagekräftig.
FPS-Zahlen sind es -zumindest wenn man wie aktuell AMD derartige Schwankungen mit drin hat- nicht.
 
Dann müsste man in Relation auch betrachten, wie viele Spiele derartigen Schwankungen unterliegen. Nach wie vor sollten FPS das primäre Bewertungskriterium sein, PLUS bei Schwankungen die Framelatenz. Prinzipiell, da FPS bei jedem Spiel messbar sind, Framelatenzen aber bei vielen Spielen nicht ins Gewicht fallen, müssen FPS das primäre Bewertungskriterium bleiben.
 
ich mag CB schrieb:
@sonyfreak1234 mit dem tool lässt sich das problem aber nicht vermeiden und es bringt noch extra probleme mit sich;) die 670/680 sind bei 1080p einfach de bessere wahl(anisotropischer filter,frame latenz,stromverbrauch,features). den was bringt mir eine karte die zb bei 1440p oder höher 5 fps mehr hat aber trotztdem gefühlt mehr ruckelt?:freak:

hmm ich weis nicht nur weil was irgendwo gemesen wird , darauf zu vertrauen ist mir doch ein bisschen zu ......

den ich hab selbst auch eine 7950 und hätte keine ruckler bemerkt.
Ergänzung ()

cornix schrieb:
Typisch AMD: Quetschen die letzten Mhz aus ihrem Silizium, nur um 3% schneller als nvidia zu sein. Wenn ich die GTX 680 übertakte, bekomme ich ca. 15% mehrleistung bei geringerem verbrauch.

Außerdem geht der Verbrauch der 7970 gar nicht. Fast 80W mehr als die 680.

oh nein dafür bekommt man gute karten(7970/7870) auf bis zu 1400mhz, dann kann die 680 soagr gegen eine 200euro karte(7870) den koffer packen.

(unter normaler kühlung)

Die was es am meisten standhalten sind von MSI/His
 
Zuletzt bearbeitet:
Merle schrieb:
Dann müsste man in Relation auch betrachten, wie viele Spiele derartigen Schwankungen unterliegen. Nach wie vor sollten FPS das primäre Bewertungskriterium sein, PLUS bei Schwankungen die Framelatenz. Prinzipiell, da FPS bei jedem Spiel messbar sind, Framelatenzen aber bei vielen Spielen nicht ins Gewicht fallen, müssen FPS das primäre Bewertungskriterium bleiben.
Woher weißt du denn, daß das Problem bei "vielen Spielen" nicht auftritt?

Und wieso sollen die FPS das primäre Kriterium bleiben, wenn sie -zumindest bei einigen Spielen- (ob das nur wenige oder die meisten sind, bliebe zu klären) durch schwankende Latenzen überhaupt kein Indikator für ein flüssiges Spiel mehr sind?

Also ich bin wirklich der Meinung, hier sollten Hardware-Magazine/Tester auf jeden Fall mal nachforschen!
 
grenn schrieb:
0,30€=32,85€ also sind es nur noch 27€ mehr für die GTX 680

interessant das du den strom preis so hoch bzw. verallgemeinerst.

Ich mein mal gelesen zu haben gesamt DE hat einen durchschnitts preis pro kw von 22cent
Ergänzung ()

eLw00d schrieb:
Fps-Limiter sind für mich der falsche Weg. Man sollte die Ursache bekämpfen und nicht die Symptome. Nvidia macht das genau richtig.

Passend dazu noch ein ComputerBase Zitat aus dem gtx690 Test vom Mai 2012:

wen du schon eine diskusion führst da geh mal darauf ein das es z.b. bei crossfire auch andere möglichkeiten des renderings gibt und nicht nur afr.;)
Ergänzung ()

NeoGeo schrieb:
Also ich glaube da sind unsere Planetside 2 Benchmarks wesentlich aussagekräftiger als dieser Test von CB.
In der Base herum rennen bei 2560x1600 :rolleyes: hat wenig Sinn.

https://www.computerbase.de/forum/threads/planetside-2-sammelthread.1107796/




Die 7990 produziert wesentlich mehr Mikroruckler als die GTX690 und die Titan ist eine Single GPU Karte.
AMD bietet keine Qualität im High-End GPU Segment. Im Prinzip ist es egal was von AMD im Multi GPU Segment kommt da die 7990 in den meisten Spielen selbst bei 60 FPS deutlich ruckelt und somit unbrauchbar ist.
Da würde ich Benchmarks erst gar nicht durchlaufen lassen.
Die 7990 ist eben ein 500 PS Rasenmäher - Die GTX690 der 400 PS Audi und die Titan wird wohl ein 400 PS Mc Laren.

ok verstanden amd bietet keine qualität.:lol:

Aber deine post bieten noch weniger qualität als Amd.
Ergänzung ()

Project-X schrieb:
Der Anblick auf die Leistungsaufnahme macht mir schon leicht stutzig...


Nvidia GeForce GTX 580
313w

wow wär mir neu das eine GTX580 nur 313 watt zieht(ausser im idle).

sry aber die leistungsaufnahme ist doch völliger unsinn, eine normale 580 hat unter vollast zwischen 375-413watt gezoggen.
 
Zuletzt bearbeitet:
Diskutieren wir hier jetzt echt darüber, dass Leute, die bereit sind jenseits 300 € für ne Grafikkarte auszugeben, sich über 20 € mehr auf der Stromrechnung aufregen? Wenn dann kann man der Karte vorwerfen, ineffizient zu arbeiten und deshalb ein Abwärmeproblem zu besitzen, aber zum Strom sparen sind weder die 580 noch die 7970 da.
 
NeoGeo schrieb:
Das AMD mit einem so miesen Treibersupport einen Verkaufsrückgang verzeichnet wundert mich nicht.

Als ob das irgendwas mit den Treibern zu tun hätte. Wie oft mir damals die Nvidia-Treiber bei einem so anspruchslosen Spiel wie Team Fortress 2 abgestürzt sind geht auch keine Kuhhaut. Das hängt einfach mit Propaganda-Spielchen wie Physx zusammen.
"Ihr könntet euch ja eine AMD kaufen, aber sehr sehr bald kommt die Überkarte von uns. Mit PhysX!"
 
Zurück
Oben