Test 10 GeForce GTX 980 im Test

FortissimoIV schrieb:
Der typische DAU wird übersehen, dass das eine 290X ist, die so niemand für einen Kauf empfehlen würde und die künstlich auf maximale Leistungsaufnahme, maximale Hitze und maximale Lautstärke gepusht ist. Er wird auch übersehen, dass die Situation bei Partnerkarten eine völlig andere ist.

Der "typische DAU" rafft auch nicht, dass er vermutlich nie eine Referenz-GTX980 in den Händen halten wird sondern eben ein Custom-Modell. Trotzdem sieht man bei CB dauernd nur die Referenzmodell-Balken in den Diagrammen. Ich versuche schon seit dem Release der GTX-7xx Reihe auf diesen Missstand hinzuweisen, wird ignoriert. Die AMD Karten der Reihe R9 290(X) führen dieselbe, nutzlose Test"philosophie" einfach konsequent weiter. Kein Mensch lässt eine Referenzkarte von AMD so im PC werkeln, aber in ALLEN(!!!) CB Grafikkartentests entsprechen die Balken eben genau dieser völlig realitätsfremden Karte...
 
Also auf die VGA Tests bei CB geb ich nicht mehr viel,zu sehr unterscheiden sich die Ergebnisse von anderen Tests oder auch von der Realität.
Konnte mich gut erinnern wo behauptet wurde damals bei Test der Asus GTX 780 Strix das sie laut aufheulen würde wenn die Lüfter die Temperaturgrenze erreicht haben und sie dann aufdrehen. Ich hab besagte Karte und hör absolut kein Anlaufgeräusch der Lüfter unter Last.
Genauso jetzt dieser Test hier ! Hier wird die Palit Jetstream als die beste Karte bezeichnet mit dem besten Kühler !
Bei PCGH (Print) hat die Jatstream gerade mal den 4.Platz gemacht. Den 1.Platz hat die MSi GTX 980 Gaming gemacht. Unter last hat die MSi eine GPU Temp von 69 Grad,die Palit (mit dem angeblich besten Kühlkonzept :D ) hat 76 Grad !
Auch rät hier CB komplett von den Zotac Karten ab,und die haben immerhin bei PCGH den 3.Platz belegt !!!
Ich für meinen Teil nehme die VGA Tests bei HardwareLuxx oder Toms Hardware ernst,als die von CB !
 
Wolfgang schrieb:
Max bedeutet bei uns immer maximiertes Power-Target und Temperature-Target (Nvidia) bzw. wenn vorhanden Uber-Modus plus maximiertes PowerTune (AMD). Ich persöhnlich finde die Info eigentlich immer ganz praktisch, beide Daten zu beiden Modi zu haben, doch sammeln wir oft Kritik dafür. Doch die Frage ist: Was wollt ihr im Endeffekt? Nur Max? Das betrifft dann eben auch die Nachteile? Nur Standard? Dasselbe. Beides halte ich einfahc für flexibler.

Wir wollen weder "max" noch "Referenz" sondern ein Wert, der tatsächlich auch annähernd einer im Handel erhältlichen Grafikkarte entspricht. Wie ich erwähnt habe, könnte man aufgrund dieses Tests hier gut einen durschnittlichen Wert einer Custom-GTX980 errechnen und diesen in zukünftigen Tests als Balken mit der Anschrift "Custom GTX-980" (oder was auch immer) neben der "Referenz GTX-980" führen.
 
Immer das gleiche mit den Grafikkarten. Man liest sich x-viele Tests druch und hat danach noch immer keinen 100%igen Favorit.
 
AnkH schrieb:
Wir wollen weder "max" noch "Referenz" sondern ein Wert, der tatsächlich auch annähernd einer im Handel erhältlichen Grafikkarte entspricht. Wie ich erwähnt habe, könnte man aufgrund dieses Tests hier gut einen durschnittlichen Wert einer Custom-GTX980 errechnen und diesen in zukünftigen Tests als Balken mit der Anschrift "Custom GTX-980" (oder was auch immer) neben der "Referenz GTX-980" führen.
Das ist eine Idee, die sich sehr interessant anhört. Meinungen dazu?
Der Haken an der Variante ist jedoch eben, dass man so etwas erst machen kann, wenn man sich schon mehrere Partnerkarten angeschaut hat.
 
Scheinbar hat Gainward die wesentlich sparsamere GM204 zum Anlass genommen, den Kühler drastisch abzuspecken. Finde ich ziemlich fragwürdig, bei so einer trotzdem teuren High-End-Karte.
Richtig dreist wurde es bei GTX 580 3GB auf GTX 680 Phantom. Die 680 kostete wesentlich mehr, hatte weniger Vram und war schlechter gekühlt bzw. lauter, obwohl die Karte wesentlich weniger verbraucht hat. Das Spielchen geht schon eine ganze weile so und nicht nur Gainward macht da mit, die Effizienz für Gewinnmaximierung zu missbrauchen.

Meine GTX 580 3GB Phantom kennt Spulenfiepen auch nur vom hören Sagen. Wie gesagt, zu der Zeit hat man noch richtig hochwertige Komponenten verbaut. Keine Spur von Sparmaßnahmen.
 
Zuletzt bearbeitet:
Wolfgang schrieb:
Der Haken an der Variante ist jedoch eben, dass man so etwas erst machen kann, wenn man sich schon mehrere Partnerkarten angeschaut hat.

Das ist klar, aber wichtig ist dieser Punkt ja auch nicht gleich zum Release einer neuen Generation, sondern sowieso erst später. Eigentlich erst, wenn man anhand der Tests einen Vergleich mit einem neuen Modell machen will. Bis dahin dürften meist mehrere Custom-Karten durch das CB Testlabor gegangen sein.

Mich stört einfach aktuell, dass man als GTX-780 Besitzer null Referenz hat, wo man aktuell mit seiner Karte steht im Vergleich zur GTX-980 oder auch in Zukunft. Ihr habt ja seinerzeit selbst im Artikel festgehalten, dass praktisch alle Custom-780er einen Takt von um die 1100MHz erreichen, warum dann in allen Benchmarks trotzdem der Balken einer Referenz-780 mit 902MHz Takt stehen muss, blieb und bleibt mir verborgen. Ihr habt ja sowieso immer einen Link zum Testsystem, da könnte man dann einfach auch mit einem Satz erklären, um was es sich beim Eintrag "Custom GTX 980" handelt, bspw: "Der Wert für "Custom GTX-980" entspricht dem Durschnitt aus folgenden Karten: MSI, Gigabyte, ASUS, Zotac, EVGA und Gainward". So würde es auch schon passen, wenn man "nur" deren drei, zwei oder gar nur eine Partnerkarte getestet hat (bei nur EINER Karte könnte man die aber auch gleich getrost als "ASUS GTX 980" im Balkendiagramm belassen und darauf hinweisen, dass bis anhin nur diese eine Partnerkarte getestet wurde).
 
Solomon schrieb:
Umfangreicher Test wie immer. Leider kann man nur in der Produktreihe vergleichen. Einzig eine (!) AMD Karte ist noch dabei. So bringt der Test ausschließlich denen etwas, die die eine 980 mit einer anderen vergleichen wollen... :-\

Genau dafür ist der Test ja auch gedacht!
Ergänzung ()

Ich finde es gut wenn die Referenzkarten als Referenz auch genutzt werden. Immerhin erscheinen diese auch zuerst und haben dementsprechend auch die Abnehmer! Die 290X gab es lange Zeit nur als Referenz und die GTX980 anfangs auch nur! Habe aus dem Grund auch die GTX980 im Referenzdesign. Man sollte nicht von irgendeinem Hersteller, nur weil er nen besseren Kühler draufgeklatscht hat und bessere Arbeit machen als andere, diese zum Vergleichen nehmen. Für soetwas gibt es gesonderte Tests.

Wenn eine Karte Müll ist im Referenzdesign sollte das auch gezeigt werden, wie bei der 290X in dem Fall!
 
Zuletzt bearbeitet von einem Moderator:
Was finden denn eigentlich alle so geil an der 980 (und auch der 970). Die Karten sind ein paar % schneller und verbrauchen im OC Modus auch nur ein paar % weniger, als die alten Karten, aber unter 500 Euro bekommt man nichtmal eine 980, die brauchbaren Modelle kosten dann nochmal 50-100 Euro mehr. Im Gegensatz dazu kostet eine 780ti Ghz von Gigabyte gerade einmal 369€!!! Dank starker Werksseitiger Übertaktung überholt sie die hier gezeigten Karten spielend. Und ja, sie verbraucht mehr Strom, wobei das auch nicht so dramatisch ist, wenn ich mir den verbrauch der übertakteten 980 angucke... Und spart erstmal 130-230 Euro nur durch ein paar Watt weniger Stromverbrauch. Wenn man nicht gerade jeden Tag 6 Stunden unter vollast zockt, ist das ein bruchteil, zumal ältere Spiele nichtmal soviele Shader der 780ti ausnutzen. Arbeitet man mit vsync, Framelimiter etc, sinkt der verbrauch auch noch.

Anderes beispiel 970 vs R9 290. Genau die selbe Rechnung. Ist doch alles nur billiges Maarketing um die neuen karten zu verkaufen. Wenn sich der Preis Richtung 400 Euro einpendeln würde, könnte man drüber reden, aber so? Naja. Ist genau die gleiche Abzocke wie damals mit der ersten Kepler Generation, nur dass sie damals wenigstens deutlich schneller als die Vorgänger waren (kleinerer fertigungsgröße sei dank) und da ist komischerweise keienr so ausgerastet, obwohl sogar die preise ziemlich gleich, wenn nicht sogar bei besserer Lieferbarkeit etwas geringer waren. Und in einigen Monaten kommen dann die großen Maxwell Karten raus, natürlich zum Schnäppchenpreis ;) In 8 Monaten kosten sie dann genausoviel wie die aktuellen. So schnell werde ich mir nicht mehr die erste Serie bei Nvidia kaufen. Noch reicht mir meine 1350mhz 780ti, das hier gebotene überzeugt mich garnicht. Da bin ich ehr auf die 390x gespannt, Big maxwell wird man ja eh erstmal nicht bezahlen können, wenn man für ne gepimpte Mittelklasse Karte schon 500€ Plus verlangt. Die alte Generation und auch AMD sind in meinen Augend da deutlich interessanter. Wenn die 390x in etwa so schnell wie meine 780ti@1,35Ghz oder sogar noch ein gutes Stück schneller ist und nicht total abgehobene Preise auffährt (ca 500-550 wie die 290x) dann schlage ich da mal zu. 8GB Vram sind ja auch fast schon sicher.
 
Petja schrieb:
Hallo,

leider fehlt (wie üblich) jeglicher Hinweis darauf, ob über den HDMI-Ausgang auch Sound ausgegeben werden kann und in welcher Qualität.

Viele Grüße
petja
Das geht schon seit ein paar Generationen auf jedem Ausgang
 
@Shoryuken94

Wovon träumst du denn Nachts? Deine GTX 780TI hält vllt. mit diesem Takt bei der GTX980 mit. Aber dann musst du auch einräumen das die GTX980 stark übertaktet wird und da sieht die GTX 780TI ziemlich alt aus. Bestes Beispiel Watch Dogs auf 2160p und bei COD Advanced Warfare. Neue Spiele profitieren massiv von Maxwell. Weitere werden bestimmt folgen denke ich ;-)
 
Konnte mich gut erinnern wo behauptet wurde damals bei Test der Asus GTX 780 Strix das sie laut aufheulen würde wenn die Lüfter die Temperaturgrenze erreicht haben und sie dann aufdrehen. Ich hab besagte Karte und hör absolut kein Anlaufgeräusch der Lüfter unter Last.

Wir haben bei den Karten von Asus mehrfach und ausführlich nachgewiesen, dass der Kühler sehr stark vom Gehäuse abhängig ist. Das ist nachvollziehbar - und auch nachvollziehbar nicht vergleichbar mit Tests, die Grafikkarten außerhalb des Gehäuses betrachten.
 
En3rg1eR1egel schrieb:
wenn ich 10 andere karten nehme, bekomme ich zu 100% ein komplett anderes ergebnis.

Nö, das hat schon die GTX970 gezeigt.
Das sind keine Einzelfälle sondern Tendenzen, heute wie damals.

TheWalle82 schrieb:
Warum ist die Karte von Palit denn bitte Testsieger?

Sie ist nur etwas Leiser wie die Zotac extreme das ist der einzige Punkt in dem sie besser ist!

8 db (!) sind nicht etwas, das ist eine Welt.

Die Zotac hält die Temperatur unnötig hoch auf Kosten der Lautstärke.
 
10db entsprechen gefühlt der doppelten lautstärke, da sind 8db echt ne menge!
 
Kasmopaya schrieb:
Richtig dreist wurde es bei GTX 580 3GB auf GTX 680 Phantom. Die 680 kostete wesentlich mehr, hatte weniger Vram und war schlechter gekühlt bzw. lauter, obwohl die Karte wesentlich weniger verbraucht hat. Das Spielchen geht schon eine ganze weile so und nicht nur Gainward macht da mit, die Effizienz für Gewinnmaximierung zu missbrauchen.

Meine GTX 580 3GB Phantom kennt Spulenfiepen auch nur vom hören Sagen. Wie gesagt, zu der Zeit hat man noch richtig hochwertige Komponenten verbaut. Keine Spur von Sparmaßnahmen.


So etwas ist wirklich ärgerlich, aber leider üblich -.-' Auch Nvidia selbst spart bei ihrem Referenzkühler gegenüber GTX Titan und GTX 780 Ti deutlich ein, was ich schade finde, denn wäre der Kühler gleichwertig geblieben, gäbe es jetzt vielleicht endlich mal wieder eine ansprechend leise Karte mit Radialbelüftung.

Was das Spulenfiepen angeht, so hoffe ich, dass AMD es im kommenden Jahr besser macht und nicht an den entsprechenden Komponenten spart. Dieses Problem ist gerade bei Karten, die eigentlich so effizient arbeiten und problemlos leise gekühlt werden können eine echte Schande.
 
Stromkosten Rechner

zwischen 315 und 380 Watt sind es ganze 10€ pro Jahr bei täglich 2 Std spielen.
5 std täglich sind es im Jahr keine 30€ Unterschied.

Die meisten von euch "Heizkosten / Kernkraftwerk" Kommentatoren würden sowieso ca. 80 Watt weniger verbrauchen, als mit dem Testsystem des CB, da ihr "Stromkostensparer" sowieso nicht übertaktet um 2€ im Monat einzusparen.

Die meisten von euch verbrauchen mehr Sauerstoff als Strom gebraucht wird.

Edit: 0,24 Cent pro kWh
 
Zuletzt bearbeitet:
Katillah schrieb:
Edit: 0,24 Cent pro kWh

Süß ;) Heute kann man schon eher mit 0,3 rechnen. Aber ja, es spielt keine Rolle wenn die Graka nicht gerade 24/7 auf 100% läuft.
 
die zotac extreme kommt auf 41 db. das ist gerade mal 1 sone. ich konnte eine meiner karten die 3 sone hatte, beim spielbetrieb nicht störbar raushören, was ca. bis 55 db wäre. wer bei diesen karten von laut spricht solte seine komponenten mal aus dem katzenkäfig in nen normalen tower packen...
oder hab ich was übersehen? ist es ein test für silentfreaks oder so?
:)
 
Für Palit spricht ausserdem, dass es eine günstigere (aber offenbar baugleiche) Jetstream gibt, die man per BIOS zur Super JetStream machen kann :daumen:
 
Zurück
Oben