Test Grafikkarten: 17 × AMD Radeon und Nvidia GeForce im Vergleich

Naja - wir sind aber nun mal im Jetzt und es zählt, was jetzt verfügbar ist. Als gesichert kann angesehen werden, dass AMD bei vergleichbarer Leistung irgendwo zwischen 50W bis 100W mehr verbraucht, unter schlechten Umständen kann das sogar noch mehr sein. Das bedeutet ja nicht, dass man AMD grundsätzlich ausschließen muss - aber man sollte es anerkennen und berücksichtigen. Es ist ein geldwerter Nachteil und belastet die Umwelt unnötig. So die Tatsachen. Das kann aber auch umgekehrt gehen - es zeigt sich ja zum Beispiel teils bei Photoshop, dass nVidia nicht runtertaktet - und AMD hier sparsamer sein kann. Hier also Vorteil AMD. Bitte mehr davon, bzw. weniger, also auf beiden Seiten.
 
radical1983 schrieb:
Ok, danke.

Eine 780ti, die kurz nach der 290X erschienen ist, verbraucht kaum weniger als die AMD Karten.
Im Bezug auf Leistung lässt eine 290X die 780ti jedoch mittlerweile spürbar hinter sich.

Ob spürbar oder nicht, bitte nicht OC mit Referenz vergleichen. Bei OC-Karten lässt die 780ti die290X immer noch "spürbar" hinter sich:D
 
@Guru Meditation
Das möchte ich auch gar nicht anzweifeln. Dies wird aber mit einer höheren Leistungsaufnahme einhergehen. Es geht mir nur um die Relation zwischen Verbrauch und Spieleleistung der beiden Grafikkarten die aus dem selben Zeitraum stammen.
Diese werden sich nämlich kaum in FPS pro Watt unterscheiden.

@slsHyde
Das "hier und jetzt" hast du ja mittlerweile des Öfteren vorgebracht. Natürlich kann nur das getestet werden was verfügbar ist. AMD Antwort auf Maxwell steht entsprechend noch aus.
Deiner Argumentation folgend müssten auch alle 780(ti) Besitzer umgehend ihre Karten entsorgen und wegen 20-30% Leistungsplus und der hohen Stromersparnis zur 980 wechseln. An den Kepler scheint sich aber kein Nvidia-Besitzer zu stören.

Das AMD an der Effizienz arbeiten muss, steht außer Frage und das möchte ich keines falls klein reden. Wenn Fiji erscheint und in diesem Punkt keine Verbesserung bietet, kann sich jeder gerne darüber auslassen und das Maul zerreißen. Das würde ich auch tun.

Sich weiterhin über Hawaii zu echauffieren halte ich persönlich für sinnbefreit.
 
slsHyde schrieb:
Naja - wir sind aber nun mal im Jetzt und es zählt, was jetzt verfügbar ist. Als gesichert kann angesehen werden, dass AMD bei vergleichbarer Leistung irgendwo zwischen 50W bis 100W mehr verbraucht, unter schlechten Umständen kann das sogar noch mehr sein. Das bedeutet ja nicht, dass man AMD grundsätzlich ausschließen muss - aber man sollte es anerkennen und berücksichtigen. Es ist ein geldwerter Nachteil und belastet die Umwelt unnötig. So die Tatsachen. Das kann aber auch umgekehrt gehen - es zeigt sich ja zum Beispiel teils bei Photoshop, dass nVidia nicht runtertaktet - und AMD hier sparsamer sein kann. Hier also Vorteil AMD. Bitte mehr davon, bzw. weniger, also auf beiden Seiten.

Diese Art Diskussion ist für Gamer grundsätzlich irrelevant.

Wenn die eine Grafikkarte etwas mehr braucht als die andere, was solls.

Hole ich am Sonntag meine Brötchen mit dem dicken Benz, oder laufe ich zum Bäcker mit diesem engagierten Golden Retriever, der einfach nur das Ziel hat diese Brötchen gut und sicher nach Hause zu bringen.

Die Technik muß stimmen. Elegant und von vielen bewundert trägt mein Goldi die Brötchen nach Hause und gibt diese unversehrt und nicht angeknabbert an meine Frau weiter. Wir haben damit jeden Sonntag unbeschreiblich viel Freude. Sogar der Hund findet das geil.

Zurück zu Thema - GPU haben in den letzten Jahren anders als CPU an Performance ordentlich drauf gelegt. Kann Intel oder geschweige denn AMD eine Verdopplung der CPU-Performance in den letzten vier Jahren präsentieren?

Da sieht es bei Grafikkarten deutlich besser aus. Deswegen sind auch die GPU-Threads bei Foren auch so voll.

Auch IT-Seiten tragen diesem Umstand Rechnung und nutzen dieses User-Interesse für sich. Das ist aber kein Vorwurf, denn da hat sich in den letzten Jahren einfach viel getan.

Diese positive Entwicklung kann im Moment NVidia in bare Münze umsetzen. AMD hinkt da einfach hinterher. Mit den ständigen Rebrands kann man nicht bei uns Usern punkten. Die haben generell mit einer höheren Leistungsaufnahme zu kämpfen.

Na ja, früher war das mal anders rum. AMD-Grakas waren genügsamer. Da wurde der Zeigefinger Richtung NV-Umweltsünder ausgestreckt. Heute ist es nicht viel anders, nur haben sich die Lager vertauscht.

Wir Fan-Boys, ich sage wir, weil ich gehöre auch dazu, wir drehen uns alles so hin wie es unser favorisierter Vendor ausgelegt hat. Das hat nix mit Objektivität zu tun. Dazu sollten wir aber stehen, denn wir setzen uns mit unsere Hardware auseinander, und haben Spass damit.

Wir dürfen aber nie zulassen, das wir Vehikel von dieser Geschichte werden. Etwas Kritikfähigkeit sollten wir bei dieser ganzen von beiden GPU-Herstellern gezielt indizierten Diskussion behalten.

Aber im Grunde geht es ums Zocken, da sind wir uns hoffentlich einig.
 
radical1983 schrieb:
Deiner Argumentation folgend müssten auch alle 780(ti) Besitzer umgehend ihre Karten entsorgen und wegen 20-30% Leistungsplus und der hohen Stromersparnis zur 980 wechseln.
Was für ein Unfug, das habe ich nicht argumentiert. Wäre ökologisch betrachtet eine Katastrophe.
Ergänzung ()

guru meditation schrieb:
Diese Art Diskussion ist für Gamer grundsätzlich irrelevant.
Lebt diese Spezies auf einem anderen Planeten? Ach ne, nur in einer anderen Realität, der virtuellen. Tja, so was passiert, wenn man ständig abgeschossen wird und trotzdem weiter lebt. Da verschieben sich die Massstäbe. Video Games ruined my life. Thanks god I have two extra ones.
 
Wenn ich vielleicht ein wenig, ganz leise Kritik üben darf, dann ist es das Nicht-Warten auf Windows 10. Die drei Monate (samt einiger noch kommender Spiele) hätte man ja nun noch warten können. Dann nämlich wird sich einiges sichtbar verschieben und man müsste noch einmal komplett von vorn anfangen. Also ich hätte die Geduld durchaus gehabt (und habe sie ja auch).
Darfst du:D
Ja, an Windows 10 habe ich auch gedacht.
Da gab es jedoch einfach das Problem, dass der damalige Testparcours/Treibersituation echt alt waren, was vor allem in Anbetracht der AMD-Karten unschön gewesen wäre (die kommen ja wohl hoffentlich noch vor Windows 10...).
Es wird jedoch noch Aktualisierungen geben - es wird also nicht alles kommende ignoriert werden.

Ich habe mir übrigens mal die Leistungsaufnahme des Gesamtsystems in einem anderen Spiel angeschaut, bei dem das Verhältnis R9 290X / GTX 980 genauso ist wie im Durchschnitt: Bioshock Infinite.
Und lustigerweise hat dort die AMD-Karte noch schlechter abgeschnitten. Es ist also kein Problem, dass die AMD-Karten in Ryse schneller laufen als in den meisten anderen Spielen.
 
Also da gehts doch weiter...bei allem Verständnis für all die Arbeit die ihr hier investiert, fehlt mir völlig das Verständnis für die Weise wie ihr eure hart erarbeiteten Ergebnisse präsentiert.

Welchen Mehraufwand würde es den Kosten zu schreiben "Das Gesamtsystem zieht mit einer AMD-Karte 300W" gegenüber "die AMD-Karte zieht 300W"

Wenn Forenuser so schreiben ist es ärgerlich genug - aber wenn man die Dinge ins rechte Licht rücken will, mit dem Hinweis, das seien Gesamtsystemwerte, dann muss ich aus Artikeln solche Sätze zitieren. Ich finde hier ist einfach etwas grundsätzlich schludderiges in euren Ausdrucksweisen vorhanden, das eine völlig andere Bedeutung ergibt. Besonderst für mich als Nicht-Deutscher ist es enorm schwierig mit deutschsprachigen Usern hier im Forum eine einheitliche Sprache zu erzielen wegen solch flappsigen Formulierungen eurerseits.

Ich bemühe mich jeweils in der Muttersprache der Webseite teilzunehmen an Forendiskussion - kann ich von euch nicht das selbe an Sorgfalt erwarten anstatt dann lesen zu müssen "weiss doch jeder was gemeint ist"- ich meistens nicht, da für mehrsprachige User nun einmal in technischen Details viele Stolperfallen liegen.
 
Das es im Kontext ums Gesamtsystem geht erkennst du jeweils am Anfang eines Absatzes. Erst wenn etwas anderes steht gilt eine neue Richtlinie. Da cb aus genannten Gründen nicht plant die Karten separat zu messen ist es eigentlich auch vom Gesamtverständnis so aufzunehmen.
Dafür dass du nicht deutsch bist schreibst du ganz ordentlich. So schlimm kanns also nicht sein ;)

ps: Gänsefüßchen leiten ein Zitat ein, was bei dir offenbar nicht der Fall ist.
 
Doch natürlich - achte darauf wen ich zitiert habe. Gänsefüsschen leiten eine wörtliche Rede ein. Wenn ich zitieren will benutze ich die Quote Funktion. Nicht jede wörtliche Rede ist ein Zitat, wie man in jedem Buch sehen kann das man mal liest.
Scheint nicht nur in technischen Details Schwierigkeiten zu geben mit der deutschen Sprache, was ja direkt meine Kritik bestätigt.
Ergänzung ()

Viele vergessen den Unterschied zwischen Schuldeutsch und Sprachgebrauch. Sprachgebrauch habe ich in erster Linie beruflich mit Deutsch und nicht umgangssprachlich.
 
@Daedal:
Wo Du Recht hast, hast Du Recht (der Duden hilft immer). Die Verwahrlosung der deutschen (Schrift-) Sprache ist leider ganz offensichtlich nicht mehr zu stoppen. ;)
 
:p Ich ging davon aus das er es aus dem Text vom Test nimmt. Hab mich nicht richtig ausgedrückt und schäme mich.
 
hier ein test zu project cars
http://www.pcgameshardware.de/Project-CARS-PC-238576/Specials/Benchmark-Test-1158026/
da ist eine 290X schlechter dran als eine 960 :(
Es handelt sich um einen nvidia Titel, aber das es so verdamt schlecht für die AMDs ausfällt ist mir suspekt. nvidia sorgt bestimmt dafür das amd karten ausgebremst werden. dazu gabs ja schon mal eine stellungnahme seitens amd mit solch einer behauptung. Ich glaube da ist was dran!

Ich fürchte um Witcher 3!
 
Zuletzt bearbeitet:
Ja genau. Jensen setzt sich da hin und schreibt eine extra Schleife für Radeons - NOT!

Entweder da schmeckt dem Treiber was nicht oder man nutzt Hawaii einfach nicht richtig aus. Es gibt eine detaillierte ISA für Hawaii die jeder Entwickler einsehen kann. Also wenn dann hat der Entwickler da er was vergeigt oder wie gesagt der Treiber.
 
4-6 Wochen wie die Erfahrungen ja zuletzt gezeigt haben. Früher muss man solche Spiele auf AMD Karten auch gar nicht testen wenn Gameworks im Spiel ist. Das hat Nvidia recht clever eingefädelt, da die Tendenz immer früher Zugriff auf Spiele haben zu wollen immer stärker wird. Sieht man ja an all den Early-Access Angeboten, wo schon Alphas installiert werden können. Ein Test 6 Wochen nach Release eines lange erwarteten Spiels ist für jede Redaktion ein Unding. Also machen die seriösen einen Nachtest, doch dieser wird dann nur noch von wenigen beachtet.

Hier kann man Nvidia zum guten Marketing beglückwünschen. Ich für meinen Teil hoffe, dass AMD niemals so "gut" wird, denn das bedeutet für den Endkunden nur noch eine schwerere, technisch basierende, Auswahl seiner nächsten GPU zu treffen.
 
Zuletzt bearbeitet: (Komasetzung-hoffentlich richtig diesmal :P)
Bisher ist noch nicht klar belegt dass AMD Hardware bewusst benachteiligt ist. Hairworks und Waterworks basieren nun mal auf Algorithmen zum tesselieren wo AMD bekanntlich auch mit Hawaii noch eine Schwäche hat. Und diverse Tests ergaben dass z.B. HBAO+ auf Radeons nicht nennenswerter einbricht als auf GeForce-Karten. Gleiches gilt für PCSS. Bisher also eher haltloses Geplapper von Fanboys.
Für Entwickler ist es Fluch und Segen da du nicht weiß was in der Kiste ist, aber du damit auch keine Arbeit hast.

AMD scheint aktuell Probleme im Treiberteam zu haben. Also ein personelles Problem.
 
Es geht nicht um das Benachteiligen, sondern wann AMD Einsicht bekommt in den Spielecode um seine Treiber zu optimieren - und alle Gameworks Effekte sind eben nicht zugänglich für AMD. Sie müssen es umständlich durch Reverseengeneering optimieren nachdem das Spiel released wurde. Das dauert eben 4-6 Wochen.
Siehe auch hier:
http://www.pcgameshardware.de/Watch...-GameWorks-behindert-AMD-Optimierung-1122628/
Wie Forbes meldet, sorgt GameWorks nun bei Watch Dogs zumindest dafür, dass AMD Probleme hat, das Spiel für seine eigenen Grafikkarten zu optimieren. Selbst mit dem brandneuen Treiber – vermutlich ist der Catalyst 14.6 Beta gemeint - sei Watch Dogs für AMD-Hardware "erstaunlich unoptimiert". Spieler würden dann natürlich AMD die Schuld dafür geben, was aber nicht gerechtfertigt sei. So dürften viele Entwickler, die wie Ubisoft GameWorks verwenden, oft keinerlei Verbesserungsvorschläge von AMD annehmen. Damit scheide die beste Art der Optimierung, nämlich im Game-Code selbst, aus. Selbst wenn Entwickler eigene Ideen zur Erweiterung von GameWorks vorschlagen, dürfe AMD diese nicht einsehen oder gar eigene Erweiterungen einbringen. Genauer: Das bedeutet jedoch nicht, dass der Entwickler solche Änderungen nicht einbauen darf, weil sie von AMD sind, sondern "nur" (das wiederum nimmt Nvidia sicherlich nur allzu gerne mit), dass der Spieleentwickler an den einzelnen Gameworks-Modulen überhaupt nicht weiter herumschrauben darf. Diese sind damit quasi Black-Box-Module, welche für "runden Lauf" auf Nvidia-Grafikkarten optimiert sind.
 
Das mag zu Anfang viel Arbeit sein, aber dann ist 's routiniert genug um schneller vom Band zu laufen. Mit dem visual debugger kannst du auch ne ganze Menge sehen wo es performancemäßig hängt. Der Gameworks-code ändert sich ja nicht von Spiel zu Spiel drastisch.

AMD wird nie Einsicht erhalten, wenn das weiter so geht. Aus unternehmerischer Sicht kann ich das nachvollziehen und würde diese Strategie sogar selber anwenden (müssen).
Und Forbes kann sich gehackt legen. Das ist ein ähnliches Boulevard-Blatt in der Hinsicht wie wtf-tech und videocardz.com. Daneben können sich Richard Huddy und Roy Taylor legen.
 
Hujax schrieb:
nvidia sorgt bestimmt dafür das amd karten ausgebremst werden. dazu gabs ja schon mal eine stellungnahme seitens amd mit solch einer behauptung. Ich glaube da ist was dran!

Da sorgt AMD schon selber für, keine Panik ;)

Ist wie bei allen Neidern...sobald ein Produkt besser ist, muss Beschiss dabei sein...Unser Nachbar benutzt sicher auch nen Dünger aus Chernobyl, sein Rasen wächst viel schneller als unserer und das Grün leuchtet auch noch intensiver!
 
hübie schrieb:
Das mag zu Anfang viel Arbeit sein, aber dann ist 's routiniert genug um schneller vom Band zu laufen. Mit dem visual debugger kannst du auch ne ganze Menge sehen wo es performancemäßig hängt. Der Gameworks-code ändert sich ja nicht von Spiel zu Spiel drastisch.
Ich bin mir sicher du kannst das nur Scherzhaft meinen. Wie soll denn AMD raus bekommen wo im Quellcode nun der Gameworkscode, welchen unerwünschten Efekt hat? Wo es benutzt wurde und wo nicht?
Es geht ja nicht nur darum für die eigene GCN Architektur die richtigen Codezeilen zu ersetzten. Es geht darum diese Stellen alle aufzuspüren und eventuelle Nebeneffekte auszugleichen. Das ganze in Millionen Zeilen von Code die man selber durchsuchen muss und Teile davon nicht SEHEN darf ^^

Es dauert routiniert 4-6 Wochen um die Treiber zu optimieren wenn Gameworks genutzt wird. Das kann noch nicht mal einen Nvidia Käufer freuen, wenn der andere im Mulitplayer durch sein System das Spielvergnügen reduziert.

Und Forbes ist für dich ein Boulevardblatt? Ok...na dann.
Ergänzung ()

hübie schrieb:
AMD wird nie Einsicht erhalten, wenn das weiter so geht. Aus unternehmerischer Sicht kann ich das nachvollziehen und würde diese Strategie sogar selber anwenden (müssen).
Das kann ich durchaus auch aus Nvidias Sicht - und würde ich ein Unternehmen mit dieser Firmenphilosophie führen, wären das auch meine Maßnahmen.

Was ich nicht verstehen kann ist das Verhalten der Entwickler die aus Faulheit einen Teil ihrer Kunden - auch wenn der Teil nur noch 25% beträgt - schlechter stellen. Es ist ja nicht so, dass AMD mit den Studios nicht auch zusammenarbeiten würde.
 
Zuletzt bearbeitet:
Zurück
Oben