Test Grafikkarten: 17 × AMD Radeon und Nvidia GeForce im Vergleich

hübie schrieb:
Cons:
  • Wie von anderen angemerkt sollte man einen i5 2500k auch so nutzen wie er vorgesehen ist: übertaktet.
  • Wenn man schon eine CPU mit rein nimmt die der älteren Generation entspringt dann entweder auch mit HT oder zumindest der Möglichkeit HT zu nutzen (i7 2600k).
  • Wieso verbraucht das Gesamtsystem mit der 290X weniger als mit der 290 non-X ohne dass darüber ein Wort verloren wird?
Weil man aus den Tests weiß, dass die r9 290 eine höhere Spannung anliegen hat, damit sie wärmer und letztendlich nicht schneller als die r9 290x wird. Wieso sollte man das nochmal extra erwähnen? Das ist bekannt.
 
Scythe1988 schrieb:
Warum sollte ein CPU limitiertes mmorpg auch in einen grakatest? Gut das sie es nicht gemacht haben, das wäre verschenkte Zeit.
WoW ist nicht mehr rein CPU-limitiert, den größten Teil der Zeit ist es inzwischen GPU-limitiert (bei maximalen Details).
In 4K (was durchaus spielbar ist) ist die CPU sogar ziemlich egal.
Darüber hinaus hat WoW extrem viele Einstellungsmöglichkeiten seit Warlords of Draenor.
 
Die Ideen mit den durchschnittlichen Partnerkarten und dem 2500K sind brilliant, großes Lob!
 
Ganz anständig dieser Test, auf sowas habe ich schon längere Zeit gewartet. 2-3 kleine Kritikpunkte hab ich dennoch:
Als Hauptprozessor würde ich einen 6Kerner nehmen, weil einfach Highend und Flaschenhalsminimierung und immer mehr Spiele nutzen die zusätzlichen Kerne. Da kann man dann auch als zweiten Prozessor den 2500er nehmen und etwas übertakten, dann kommt man in etwa auf die selben Werte wie mit dem 4790 und kann auch noch mit dem 6Kerner vergleichen.
Dann fehlt mir die TITAN Black im Vergleich, wäre interessant zu sehen inwieweit die 780ti mit ihren 3gb Speicher eingeschränkt wird und wie sich die Black im Vergleich zur 980 verhält. Als zweite Karte fehlt mir die 290x mit 8GB im Vergleich, hier gilt das selbe wie bei der Titan Black. :cool_alt:
 
@McMOK

Korrekt, daher sowas auch in der eigenen Einschätzung berücksichtigen :-)
 
Wolfgang schrieb:
Wie schnell kann die GPU Videos abspielen und decodieren? Full HD mit H.264-Codec ist dabei die einfachste Herausforderung. Interessanter hingegen ist der Blick auf die Ultra-HD-Auflösung und den neuen H.265-Codec.

VP9 hätt ich hier als besonders heraufordernde Aufgabe sehr interessant gefunden. Auch wenn hier v. a. eine schnelle CPU gefordert ist, spielt doch die Grafikkarte auch eine Rolle.

Gruß,
Lord Sethur
 
Kann mir mal wer verraten, warum zwischen der 290 und der 290X kaum ein Unterschied besteht leistungstechnisch?
 
@frkazid

Dann kann ich ja meine Sapphire ungefähr im Leistungsrating bei 105% Einorden.
Wobei meine Karte auch locker 1200Mhz schafft und damit verdammt nahe der GTX 980 Kommt. :D
 
Es war ja eine gute Idee, den 2500K mit in die aktuellen Benchmarks einzubauen, jedoch bitte nicht mit Standardtakt! DAS macht keinen Sinn, denn interessant wäre es zu wissen, wie sich der Prozessor mit einem Takt >4GHz schlägt, denn so wird er wohl hauptsächlich heute noch eingesetzt.
Dass ein 4Jahre alter Prozessor @Stock langsamer ist, als ein aktueller Prozessor, welcher auch noch übertatet ist... Ja, das ist mal eine Erkenntis.
Und dann ist mir beim Benchmark zu Assetto Corsa noch etwas aufgefallen:
Bei euch schafft eine GTX780 in FHD mit MSAA4x und FXAA und 16x AA mal eben so zwischen 38 und 42 FPS? Das entspricht in keinster Weise der Realität. Ich habe noch nicht einmal so schlechte min Frames. Da stimmt irgendwas nicht.
 
Zuletzt bearbeitet:
schallundrauch schrieb:
Kann mir mal wer verraten, warum zwischen der 290 und der 290X kaum ein Unterschied besteht leistungstechnisch?
Weil die Referenz-290X von Hand noch weiter heruntergetaktet wurde als die Referenz-290?
 
10% mehr Takt sind nicht zwingend 10% mehr Leistung. Aber so ähnlich könnte man es Interpretieren.

Wobei man aber gerade bei 290(x) OC beachten sollte, dass sich der Stromverbrauch immer weiter erhöht. Sieht man ja an diesem Test schon sehr gut.

Wenn man aber darauf verzichten kann bzw. die Preisdifferenz zwischen den Karten berücksichtigt, ist da wohl erst nach 2, 3 Jahren von einem "Verlust (monitär)" auszugehen.
 
Habs nicht gefunden, aber sind die Taktraten irgendwo angegeben?
 
Obi-Wan schrieb:
WoW ist nicht mehr rein CPU-limitiert, den größten Teil der Zeit ist es inzwischen GPU-limitiert (bei maximalen Details).
In 4K (was durchaus spielbar ist) ist die CPU sogar ziemlich egal.
Darüber hinaus hat WoW extrem viele Einstellungsmöglichkeiten seit Warlords of Draenor.

Tja, spielt aber scheinbar keine Rolle ob man objektiv gesehn im Recht ist bzw. objektiv gesehn es Sinn macht das Spiel zu testen, außerdem wäre CB dann viele anderen Seiten voraus, es gibt nur wenige gute Seiten (meist International) die WoW auch in 4k (+ aktuelle Addon, also WoD) testen.


trotzdem gute Test hier, zB weil man 4k mit einbezogen hat!
 
Nijo44

Lies doch mal bitte die vorherigen Kommentare ;-)
 
incurable schrieb:
Weil die Referenz-290X von Hand noch weiter heruntergetaktet wurde als die Referenz-290?

Zwischen den OC-Modellen ist doch ebenfalls nur 4% Differenz. Die sollten ja bessere Customkühler besitzen, oder nicht?
 
@ frkazid
auch nicht zwingend. Meine Sapphire läuft sogar leicht undervoltet und ohne Powertarget erhöung mit 1100 Mhz.

PS: Na ja egal, freu mich einfach das ich den Kauf nicht bereuhe. :)
 
Zuletzt bearbeitet:
incurable schrieb:
Richtig wäre, ein repräsentatives OC-Modell pro GPU auszuwählen und dieses wie vom Werk gedacht automatisch taktend und ohne Gefriemel an Lüftern oder power targets durch den Parcour zu jagen.

Aber dann müssten man den anderen 3 bis 5 Herstellern erklären, warum genau diese Karte ausgewählt wurde und entsprechend mehr Außenwirkung bekommt.


Tja, aber "leider" haben halt die CB User entschieden, dass sie die Tests so haben wollen.
https://www.computerbase.de/forum/t...oden-referenzdesign-vs-partnerkarten.1423181/

Tut mir leid, dass dein "richtiges" Verfahren keine Anwendung findet...:rolleyes:
Man kann es nicht allen Recht machen.


@Topic:
Sehr schöner Artikel - vielen Dank dafür!
Ich finde es besonders gut, dass auch ältere Karten dabei sind (ich, als HD6870 Besitzer ;)) - da fällt so ein Vergleich deutlich einfacher!
 
schallundrauch schrieb:
Zwischen den OC-Modellen ist doch ebenfalls nur 4% Differenz. Die sollten ja bessere Customkühler besitzen, oder nicht?
Die Taktraten sind "ausgewürfelt," bei den "OC-Modellen" ergab der Würfel 23 MHz (2%) Vorteil für die 290X.

Dass sich die 10% Unterschied in der Shader-/Textur-Hardware in der Regel nicht groß im Ergebnis niederschlagen, ist schon seit der Vorstellung der Hawaii-GPU so.
 
Kann mich hier nur auf den Test beziehen. Aber selbst mit diesen Werten könnte man ja rechnen.

Differenz OC GTX980 vs OC 290X ca. 100 Watt im Gesamtsystem.

Ich nehme mal an, dass man in einer Woche ca. 15h unter Volllast am PC sitzt.

(15h x 100 Watt x 52 Wochen) / 1000 = 78 kWh.

Bei einem derzeiten Preis von (hoch angesetzen) 40Cent/kWh sind das ca. 32€ im Jahr Mehrverbrauch.

MSI 4G GTX980 = 583,36 EUR
290X Tri-X OC (8GB) = 387,90 EUR

Den Rest kann man sich ja nun selbst denken. ^^
 
Zuletzt bearbeitet: (typo)
Zurück
Oben