Test Grafikkarten: 17 × AMD Radeon und Nvidia GeForce im Vergleich

FormatC schrieb:

Danke, aber ich steh wohl grad auf der Leitung. Jedensfalls weiß ich nun, dass Du weder zu CB gehörst, noch dass Du am Artikel beteiligt warst.

Schön, dass Du hier mitliest und mitschreibst :)
 
Manchmal liest man halt Dinge, die man gern übergehen möchte, es aber ohne Alkohol nicht kann. Dann lieber auch mal etwas Senf dazu geben, als sich ärgern oder immer nur Fenster wegklicken. Aber es geht hier ja nicht um mich, sondern die Grafikkarten. Also bitte wieder B2T :)

Wenn ich vielleicht ein wenig, ganz leise Kritik üben darf, dann ist es das Nicht-Warten auf Windows 10. Die drei Monate (samt einiger noch kommender Spiele) hätte man ja nun noch warten können. Dann nämlich wird sich einiges sichtbar verschieben und man müsste noch einmal komplett von vorn anfangen. Also ich hätte die Geduld durchaus gehabt (und habe sie ja auch). ;)
 
SSJ schrieb:
Absolut unverständlich wie Einige hier versuchen die 20-30€ Unterschied Einkaufspreis großzureden aber gleichzeitig den deutlichen Stromhunger kleinzureden bzw. sogar zu ignorieren a la "interessiert mich nicht".

Naja, Fanbrillen und so

Liegt wohl daran, das Hardware selbst gekauft werden muss ( und da können 20-30 Euro eben ne Menge sein, wenn man noch keinen 40+ Stunden Job hat ), die Stromrechnung aber immer noch die Eltern zahlen ;)
 
Ich habe erstaunlicherweise fürs ganze Labor für 2014 nur schlappe 128 Euro nachzahlen müssen. Rechnet man die Preissteigerung raus, ist der Gesamtverbrauch eher konstant geblieben bis leicht gesunken. Bei mir fallen 30 Watt hoch oder runter eh nicht mehr ins Gewicht. :D
 
zeedy schrieb:
Sind 215-250W jenseits von gut und böse? Bei Toms Hardware hat man doch eine R9 295X2, 450W TDP, an einem 500W beQuiet Netzteil betrieben ;) Okay, man sollte nicht so übertreiben, sondern das NT so dimensionieren, dass eine 50-70%ige Last entsteht, aber das zeigt auch, dass dieses Gelaber um AMD's ach so hohen Stromverbrauch grotesk übetrieben ist.
Ein System mit einer schnellen AMD CPU und Grafikkarte verbraucht seit fast einem Jahrzehnt
mehr als ein Intel / Nvidia System mit vergleichbarer Leistung. Das ist definitiv nicht nur ein
wirtschaftlicher Faktor für die Stromkosten, sondern es heizt dir auch die Bude auf und du musst
entweder mehr Geld für bessere Lüfter ausgeben oder mit der höheren Lautstärke von Billigen
leben. Mal ausgerechnet wann sich das amortisiert hat? Es ist nicht die Welt, das stimmt, aber
wenn man aus nem Bereich kommt wo jedes Grad Celsius, jeder Frame und jedes Watt nachge-
messen wird, warum sollte man hier aufhören, es genau zu nehmen?
TCO ist hier das Stichwort und sollte in Reviews in die Wertung mit einfließen, so könnte manchen
Leuten vielleicht etwas klarer werden, worauf sie sich da konkret einlassen.

Es könnte 3 Szenarien geben: Office/Casual, CPU lastig, Grafik-lastig und das dann hochgerechnet
pro Stunde, Tag und Jahr. Was kostet die Hardware, was kostet der Strom, welche Lüfter, welche
Abwärme. Klar, es ist für den Tester mehr Aufwand, das Review würde aber dramatisch an Wert
hinzugewinnen und neuen Diskussionsstoff liefern - der Grund weswegen wir alle hier sind, wir
disuktieren nämlich gerne. Warum also nicht mal mehr machen als jedes mal "nur" technische Daten
einer neuen Chiparchitektur besprechen?
 
Danke für den Test - mich interesiert das Thema ja nur selten - und gerade jetzt mal wieder.

Ich bin jemand der nur alle Jahre eine neue Grafikkarte kauft - meist im Bereich 130 - 200 €.

Jetzt ist GTA V raus und da will man doch die schöne Grafik genießen :) - aktuell hab ich eine Radeon HD7850 - und dachte an ein Upgrade.. also mal hier rein gucken... aber so richtig viel hat sich in dem Preisbereich nicht getan :( - liegt wohl auch am schlechten € Kurs.

Da werd ich doch wohl noch bis Herbst warten und derweil bei den "Einsteiger" Einstellungen bleiben
 
Faust2011 schrieb:
@FormatC: Wie ist eigentlich Deine Beziehung zu Computerbase und diesem Artikel? Du bist freier Autor und hast bei dem Test mitgewirkt?
Um das nochmal auf den Punkt zu bringen. Wolfgang (der Tester) hatte erwähnt, dass Tomshardware die besten Tests im Bezug auf die Leistungsaufnahme bringt. Deswegen ist die Meinung von FormatC von besonderer Relvanz.

FormatC schrieb:
Aber Erstens habe ich keine übrig und Zweitens wäre das wie gegen den Orkan zu kotzen. Man beschmutzt sich damit selbst :D
Das hast du schön gesagt :D
 
Eine Frage kommt mir da auf. Wie messen eigentlich Stromkonzerne den Stromverbrauch wenn die schnelle Taktung von Maxwell schon die einfachen Stromzählerkasten austrixt. Könnte Mann damit nicht die Stromkonzerne bescheißen? baut ein Netzteil das so hoch tacktet das es der Stromzähler nicht mitbekommt *g*
 
Es könnte 3 Szenarien geben: Office/Casual, CPU lastig, Grafik-lastig und das dann hochgerechnet
pro Stunde, Tag und Jahr. Was kostet die Hardware, was kostet der Strom, welche Lüfter, welche
Abwärme. Klar, es ist für den Tester mehr Aufwand, das Review würde aber dramatisch an Wert
hinzugewinnen und neuen Diskussionsstoff liefern - der Grund weswegen wir alle hier sind, wir
disuktieren nämlich gerne. Warum also nicht mal mehr machen als jedes mal "nur" technische Daten
einer neuen Chiparchitektur besprechen?

1. Weil Wilhelm von Ockham.

2. Der Aufwand würde dramatisch steigen, die Diskussion noch weiter abdriften. Siehe schon damals die Diskussion, ob man die Grafikkarten außerhalb eines Gehäuses oder innerhalb eines testen sollte. Dann die Diskussion, welches Gehäuse zu nutzen sei. Da gab es auch x Meinungen dazu. Es sind einfach viel zu viele Gegebenheiten, die dann beachtet werden müssen.
Das Review würde nicht an Wert gewinnen, es würde nur zu noch mehr (teilweise sinnfreien) Diskussionen kommen.
Es wird ja jetzt schon sich teilweise aufgeregt, wenn das Spielzeit-Argument kommt. 2-3 Stunden Spielen jeden Tag ist für manche hier im Forum utopisch, für andere gang und gäbe. Da einen "passenden" Wert zu finden, dann für die anderen Aspekte, wo soll das hinführen?

Daher nimmt man den möglichst kleinst gemeinsamen Nenner. Ein System, welches die getestete Hardware möglichst ausreizt und fertig. Für alles andere kann sich der User selbst gedanken machen bzw. es einfach per Forums-Diskussion abfertigen, da hier viele verschiedene Konfigs aufeinander treffen und man sich den Stromverbrauch auch selber ausrechnen kann in etwa.

Es wäre schlicht und einfach ein übertrieben großer Aufwand. Hätte dann was von der unsäglichen "Was wäre wenn XYZ gewesen wäre" Geschichtsforschung, die oftmals in Geschichtssendungen/Zeitungen sich mehr und mehr umtreibt.
 
FormatC schrieb:
Wenn ich vielleicht ein wenig, ganz leise Kritik üben darf, dann ist es das Nicht-Warten auf Windows 10. Die drei Monate (samt einiger noch kommender Spiele) hätte man ja nun noch warten können.

Ich (und bestimmt viele andere hier) freuen sich zu jeder Zeit über eine gute Wochenendlektüre.

Nach dem Release von Win10 gibt es dann von CB vielleicht das Update 2.0 des Artikels? ;)
 
Also, vielleicht gelingt es mit standardisierten Test wirklich einen Vergleich der Leistungsaufnahme hin zu bekommen. Ich denke da an sowas ähnliches wie beim Auto, spricht dem Setting angepasst die maximalen fps zu begrenzen. Dann kann die Effizienz genau vergleichen werden, da alle eben z.B. für 30, 40, 50 oder 60 fps rendern müssen. Ist halt wie beim Auto, Vollgas kostet auch mehr. Verglichen wird nach Standards.
 
@FormatC
Mal blöd gefragt...
Was erhofft du dir von Windows 10 ohne Direct X 12 Spiele? Die Performance von 7 zu 8.1 lag doch auf einem Niveau.
 
Die Performance von 7 zu 8.1 lag doch auf einem Niveau.
Die Performance von 8.1 im Vergleich zu 7 ist durchaus höher, leichte Unterschiede im Treiber-Modell eingeschlossen.

Von der DX12-API erhoffe ich mir insgesamt schlankere und schnellere Bibliotheken, sowie einen schnelleren Wrapper für das ganze Gedöns drumherum. Das wird einem auch unter nicht explizit für D3D12 geschriebenen Routinen sicher positiv auffallen. Ähnliches hat man ja auch bei den älteren DX-Versionen beobachten können, wo die Kompatibilität zwar erhalten wurde, trotzdem aber die Performance zum Teil deutlich zunahm. Außerdem wird die Mehrkernperformance sicher zunehmen und Dinge wie Task-Scheduler & Co werden wohl mit Sicherheit auch zulegen. Ich habe viel mit der Preview getestet und die Unterschiede reichten von geradeso messbar bis richtig fette Beute. Ein Sorgenkind war bisher ja auch die gegenseitige Speichereinblenderei von Grafikkarten. und Arbeitsspeicher. Damit hatte ich mich vor Jahren schon bei Windows 7 mal intensiver beschäftigt (Link).

Ich habe mir unlängst mal den Spaß gemacht, ältere DX-Bibliotheken zurück ins Systemverzeichnis kopiert und ein und denselben Quellcode einer simplen 3D-Anwendung von mir über einen Wrapper auf DX6, DX8 und DX9 umgebogen. Allein dabei gab es einen erheblichen Performance-Schub bei ansonsten identischen Trivialfunktionen mit steigender DX-Versionsnummer. Auch Bibliotheken für Transformationen und ähnliches ließen sich wesentlich schneller nutzen. Wie gesagt - identischer Code, anderes Ergebnis ;)
 
Zuletzt bearbeitet:
Vielen Dank für die ausfürliche Antwort und den Link.
Alles was bisher zum Vergleich zwischen Windows 7 und 8(.1) gelesen habe, konnte man eher unter Messungenauigkeiten verbuchen. Das war nicht viel mehr als 2 bis 3% Unterschied. Mal zugunsten Windows 8, mal zugusten Windows 7.
Deswegen bin ich davon ausgegangen, dass es eine Leistungssteigerung nur geben wird, wenn auch DirectX 12 vom Spiel unterstützt wird.
Da du dich bereits mit dem Thema auseindergesetzt gehe ich davon aus es wird zeitnah zum erscheinen von Windows 10 einen entsprechenden Test auf THG geben?
 
Keine Werbung. Und erst mal abwarten, was final unterm Strich bei rumkommt. Es werden sicher alle Seiten testen. Bei mir ist es aktuell gesunde Neugier, mehr noch nicht. :)
 
Ok, danke.

@Ray Krebs
Ein Effizienzvergleich zwischen 290x und 980 gibt es bereits auf Ht4u. Jedoch ist man dort den ungekehrten Weg gegangen. Man hat nicht die fps limitiert sondern das Powertarget und dann gebencht.
Ob dieses Szenario Sinnvoll ist muss jeder selbst entscheiden.

Zum Thema Leistungsaufnahme verstehe ich nicht, warum hier viele so ein Faß aufmachen.
Sicherlich sieht es im direkten Vergleich zu Nvidia's Maxwell Karten schlecht aus. Jedoch sind diese nunmal ein Jahr jünger.
Eine 780ti, die kurz nach der 290X erschienen ist, verbraucht kaum weniger als die AMD Karten.
Im Bezug auf Leistung lässt eine 290X die 780ti jedoch mittlerweile spürbar hinter sich.
Die 780ti hätte ich mir persönlich auch im 4K Benchmark gewünscht um den Vergleich zur 980 zu haben.

Des Weiteren sollte man auch die Leistung der 290X in Ryse in Relation zur Leistungsaufnahme setzen. In 1080p liegt die 290X nur 5% hinter der 980 OC. In 4K gar 3% davor.
Bevor jemand jetzt mit dem Argument "Milchmädchenrechnung" kommt, dessen bin ich mir durchaus bewusst. Jedoch hat CB nun mal dieses Spiel für den Vergleich der Leistungsaufnahme selbst gewählt. Ob die AMD Karte in Spielen in denen sie deutlich schlechter performt (AC:U, CoD:AW, Metro) auch so hohe Verbrauchswerte erreicht ist nicht belegt.
 
Zurück
Oben