Test Nvidia GeForce GTX 980 und GTX 970 im (SLI-)Test

MikelMolto schrieb:
Man kann es auch so sehen: Bei einer neuen Grafikkarte die 2-3 Jahre im Rechner bleibt sind 100€ mehr (zumindest für mich) kein Problem.

Sehe ich genau so wie du, hab mir vor über 1 Jahr die GTX 780 dank 10%-MeinPaket Gutschein für 500€ zum Release bestellt. Leute die sich jetzt eine 970 für 350€ kaufen, tauschen die dann i.d.R. in 2 Jahren wieder aus, dann wäre unter normalen Umständen auch meine 780 fällig und hat dann insgesamt 3 Jahre gehalten... Setzt man den Preis in Relation zur Nutzungsdauer kommt unterm Strich das Selbe raus. (GTX 780: 500€ auf 3 Jahre: pro Jahr 166€ / GTX 970: 350€ auf 2 Jahre: pro Jahr 175€)

Übrigens, Glückwunsch zum 5000. Beitrag :)
 
Du vergleichst den Preis der GTX mit einem Gutschein mit einem Preis einer GTX 970, welcher 16% über dem billigsten verfügbaren Angebot. Die meisten tauschen ihre Grafikkarte aus, wenn es eine deutlich schnellere (z.B. doppelt so schnell) gibt für das gleiche Geld oder sie außerhalb der Garantie/Gewährleisung defekt gegangen ist. Dies dauert aktuell länger als 2 Jahre.
Man kann man sich natürlich alles schön rechnen.
 
MikelMolto schrieb:
Ich finde die GTX 970 jetzt schon bezahlbar und im Vergleich zu der GTX 770 als die herauskam sogar billiger. Also was soll das Geheule?
Was es zu heulen gibt: EVGA 970 ist nicht verfügbar, ob/wie es fiept ist imho noch nicht ausreichend geklärt. Ist eben der Nachteil der zig Costum PCBs, für den Kunden ein riesen Nachteil.

Abgesehen davon ist die 770 ist doch gar kein Vergleich. War nur ein Refresh eines schon schon länger erhältlichen alten Topmodells 680. Umso schlimmer wenn die teurer war.

Herdware schrieb:
Der richtige Vergleichpartner für die GTX980 sind die GTX780(Ti). Wobei auch die ihrerseits alles andere als preiswert sind/waren.
Der zeitliche und leistungsmäßige Abstand 680 -> 780 ist vergleichbar mit 780 -> 980.
Der einzige Unterschied ist, die 780 war teuerer, bot keine neuen BQ Optionen und war nichtmal das schnellste Gerät am Erscheinungstag.

Genau das wollte ich auch schreiben. Neben den Titan wird natürlich alles andere automatisch zu einem P/L-Knaller.
Das ist auch Sinn der Sache. PCGH vergleicht Titan mit 980, damit man heimlich denkt wie geil die Titan doch ist/war. Da wedel ich mit dem Preis um die Geilheit zu mindern.
 
Zuletzt bearbeitet:
Die Titan war auch eine geile Grafikkarte - bei Release war sie deutlich schneller als alles auf dem Markt, bot einen extrem hochwertigen Kühler und hohe Leistungsreserven, verbrauchte vergleichsweise wenig und hatte von Haus aus einen großen Speicher.
Mit der 780 hat NV ja schon angefangen die Titan um ihre Exklusivität zu berauben, letztlich ging es danach mit der Marke "Titan" nur noch Abwärts und die Argumente 1000€ dafür auszugeben schwinden mehr und mehr.

Zieht man sie für P/L Vergleiche heran sieht natürlich alles Überirdisch günstig aus, das liegt aber auch in der Natur der Sache bei einer 1.000€ Enthusiasten Grafikkarte.

Persönlich fände ich es mal super wenn AMD oder NV mal eine 600-700mm² GPU für ~1.200€ bringen würden (bei der Chipgröße wären die Yields entsprechend) die dann Multi-GPU Performance (und Verbrauch) mit nur einem Chip bietet. Oder aber die beiden kriegen es mal hin mit beiden GPUs ohne Profil ein einziges Bild zu berechnen. Es kann doch eigentlich nicht so schwer seinen einen Scheduler für 2 GPUs zu bauen und deren Shader dann als Gesamtkonstrukt zu nutzen.
 
@Unyu
Für mich paßt Preis/Leistung der GTX 970 und ich kann hier in Brasilien die EVGA GTX 970 in allen Variationen heute sofort kaufen. Wenn die in Deutschland nicht verfügbar ist, dann ist das ein Indikator dafür wie beliebt die ist.
Keine Ahnung was Du mit fiepen meinst aber eine EVGA fiept nicht. Wenn doch, dann geht die solange zurück, bis eine im Rechner steckt die nicht fiept. Bei EVGA kein Problem dank Top Service.

@HansOConner
Danke für den Glückwunsch! Der Lottogewinn heute Abend fehlt halt noch.
 
Wer seit 1,5 Jahren eine Titan besitzt und die auch noch gut übertaktet, hat eigentlich immer noch keinen Grund zum Aufrüsten. Wenn in einem halben Jahr dann doch mal eine signifikant schnellere Karte herauskommt, hatte man für 2 Jahre quasi immer HighEnd im Rechner. Das relativiert den Preis natürlich schon. Mir wäre das trotzdem zu teuer, aber man muss das ja mal gesagt haben :D


Seppuku schrieb:
Du vergleichst den Preis der GTX mit einem Gutschein mit einem Preis einer GTX 970, welcher 16% über dem billigsten verfügbaren Angebot liegt. Die meisten tauschen ihre Grafikkarte aus, wenn es eine deutlich schnellere (z.B. doppelt so schnell) gibt für das gleiche Geld oder sie außerhalb der Garantie/Gewährleisung defekt gegangen ist. Dies dauert aktuell länger als 2 Jahre.
Man kann man sich natürlich alles schön rechnen.

Wäre ja nicht das erste Mal... https://www.computerbase.de/forum/t...970-im-sli-test.1392742/page-51#post-16303780
Vielleicht liest ja seine Frau/Freundin hier heimlich mit und er muss deswegen ständig den Kauf von damals irgendwie rechtfertigen :rolleyes:
 
Zuletzt bearbeitet: (Kommas und so)
Thanok schrieb:
Persönlich fände ich es mal super wenn AMD oder NV mal eine 600-700mm² GPU für ~1.200€ bringen würden (bei der Chipgröße wären die Yields entsprechend) die dann Multi-GPU Performance (und Verbrauch) mit nur einem Chip bietet. Oder aber die beiden kriegen es mal hin mit beiden GPUs ohne Profil ein einziges Bild zu berechnen. Es kann doch eigentlich nicht so schwer seinen einen Scheduler für 2 GPUs zu bauen und deren Shader dann als Gesamtkonstrukt zu nutzen.
Brutale Leistung durch Hubraum, ja. Wäre für Hi-End-Fetischisten sicher das Richtige. Müßte aber unter Wasser laufen, was aber in dem Segment ok wäre. Fände ich auch sinnvoller, als ne 980ti, die nur eine übertaktete 980 ist, oder eine Titan, die unter ihren Möglichkeiten läuft wegen Stromverbrauch etc. Indes, warum kann man die beiden GPUs von 2GPU-Karten eigentlich nicht vernünftig synchronisieren?
Würde vielleicht etwas Leistung kosten, wenn die eine GPU auf die Andere warten müsste, aber dafür keine Mikroruckler. Das war in den 90ern schon ein Thema beim Sega Saturn, der hatte zwei synchronisierte RISC-Prozessoren. Prinzipiell sollte sich diese Vorgehensweise doch auch auf moderne GPUs übertragen lassen, oder? Bin aber kein Halbleiterexperte und mag mich auch täuschen.
Aber im Grunde wären doch alle Performanceprobleme gelöst, wenn die GraKas mit 2Chips Hardwareseitig ohne Mikroruckler auskämen.
Genug Rohleistung ist ja da, allein, sie ist nicht optimal gebändigt?
Dann wäre eine postulierte GTX970 X2 -ich nenn sie mal so- doch ein Traum in Sachen Leistung :kuss:
Ergänzung ()

MikelMolto schrieb:
Keine Ahnung was Du mit fiepen meinst aber eine EVGA fiept nicht. Wenn doch, dann geht die solange zurück, bis eine im Rechner steckt die nicht fiept. Bei EVGA kein Problem dank Top Service.
EVGA fiept nicht? Nie? Ist das so? Berechnen die die Resonanzfrequenzen der Bauteile akurater als die anderen Hersteller?
Das spräche ja sehr für sie. Noch nie ne EVGA gehabt, aber bislang hat nur meine Powercolor 5870 und die Sapphire 8600GT manchmal gefiept. Aber wofür gibts Framelimiter... (Wird Zeit, dass AMD den mal in den Catalyst integriert - und zwar frei einstellbar!:mad:)
 
Was soll eigentlich der unterschied zwischen DSR und klassischem SSAA sein? Ich glaube, dass da nur wieder ein altes Feature unter neuem namen verkauft wird...
 
SSAA rendert nur Kanten in höherer Auflösung, DSR rendert wie beim Downsampling und FSAA das gesamte Bild in höherer Auflösung.
Beim Downsampling wird aber das hoch aufgelöste Bild an den Monitor gegeben, so dass man durch Panel, Kabel und Anschluss in der maximalen Auflösung und den Wiederholungsraten beschränkt wird. Bei DSR und FSAA findet die Skalierung auf der Karte statt was zwar zusätzlich Leistung kostet aber an für sich immer funktionieren und dadurch die externen Limitierungen umgeht.
FSAA gab es aufgrund des Leistungshungers aber schon seit einiger Zeit nicht mehr so dass man dies per Downsampling realisieren musste. DSR hat uns das gute alte FSAA zurückgebracht.
 
@Thanok
Sorry aber was du da schreibst ist komplett falsch. Also wirklich zu 100%. Keine Ahnung wie du das geschafft hast... :D Wenn du Fragen hast, kannst du sie aber gern hier stellen. Bei dem Thema AA habe ich vor einer Weile auch nicht wirklich durchgeblickt.


SSAA & DSR
(von http://www.tomshardware.com/reviews/nvidia-geforce-gtx-980-970-maxwell,3941-2.html)
Those of you familiar with anti-aliasing may be aware of the oldest, most visually appealing, and probably the most demanding anti-aliasing technique available: SuperSampling Anti-Aliasing, or SSAA. SSAA renders a game at a higher resolution than the game is set to display, and downsamples the result to the target resolution. As a result, aliasing artifacts are greatly reduced. The biggest problem with SSAA is that it is so demanding on hardware resources that most game engines ignore it entirely. It can sometimes be forced through the driver, but this can be unreliable.

What Nvidia offers with DSR is a way to deliver supersampling antialiasing while bypassing the game's built in anti-aliasing limitations completely. With DSR, the GeForce card fools the graphics engine into believing that it the monitor can display higher resolutions than it is actually able to. The GeForce GTX 970/980 takes that high resolution information and downsamples it to the monitor's native resolution in real time. This provides the anti-aliasing benefit of SSAA without the need to program support into the software. Nvidia claims that as long as a game engine is capable of rendering to higher resolutions, DSR will work.

Im Artikel von AnandTech wird auch erklärt, warum SGSSAA besser ist:
http://www.anandtech.com/show/8526/nvidia-geforce-gtx-980-review/6

DSR hat den Vorteil, dass es quasi mit jedem Spiel funktioniert. Technisch ist es aber nichts anderes als SSAA (Super-Sampling-AA) bzw. genauer OGSSAA (Ordered Grid SSAA), was Downsampling entspricht.

OGSSAA lässt sich schon seit sehr langer Zeit im Nvidia Treiber bzw. Nvidia Inspector einstellen ("2x2" etc.), nur unterstützen das eher wenige Spiele und man braucht oft spezielle AA-Bits. Siehe http://www.forum-3dcenter.org/vbulletin/showthread.php?t=556672

Downsampling ist hingegen eine ziemliche Frickelei.


Downsampling
Beim "normalen" Downsampling wird nicht das hoch aufgelöste Bild an den Monitor geschickt. Das downsampeln übernimmt die Grafikkarte und nicht der Monitor. Es hängt nur vom Monitor ab, welche maximale Auflösung etc. man überhaupt einstellen kann. Siehe http://www.pcgameshardware.de/Grafi...is-2-Update-mit-Geforce-Treiber-29551-817462/
[...] der Grafikchip rechnet die gesteigerte Pixelmenge vor der Ausgabe auf Ihre native Auflösung herunter. Dieses Downsampling ist nichts anderes als Supersample-AA mit regelmäßigem/geordnetem Abtastmuster, besser bekannt als OGSSAA (Ordered Grid Supersample-AA).


FSAA
FSAA ist der Oberbegriff für Anti Aliasing. Der Begriff wird kaum verwendet und wenn, dann ist in der Regel MSAA gemeint. Siehe https://www.computerbase.de/forum/threads/unterschiede-msaa-fsaa.692422/



Ergänzung ()

Da vor allem im Nvidia Inspector die ganzen einstellbaren AA-Modi auf den ersten Blick sehr verwirrend sind, hier mal eine kurze Zusammenfassung. Vielleicht hilft sie ja dem ein oder anderem bei seiner neuen Graka.

MSAA (Multi-Sampling-Antialiasing)
Nur für Geometrie bzw. Polygonkanten.

TMSAA (Transparency Multi-Sampling), TSSAA (Transparency Super-Sampling)
Für Alpha Texturen. TSSAA erzielt dabei im Gegensatz zu TMSAA ohne Zweifel die besten Ergebnisse, arbeitet dafür aber am langsamsten.

CSAA (Coverage-Sampling-AA)
Soll eine weitaus bessere Performance bei nur leicht geringerer Qualität als MSAA bieten.

SSAA (Super-Sampling-AA) = OGSSAA (Ordered Grid SSAA), entspricht Downsampling
Das gesamte Bild wird intern mit einer höheren Auflösung berechnet und dann wieder auf die gewünschte Auflösung herunter skaliert (Downsampling) und ausgegeben.
Anders als MSAA bearbeitet SSAA nicht nur die Geometrie, sondern ebenfalls die Texturen.
OGSSAA und Hybride brauchen mehr Leistung als SGSSAA und sehen teilweise schlechter aus. Sie sollten dann genutzt werden, wenn SGSSAA nicht problemfrei möglich ist.

HSAA (Hybrid Sampling AA, MSAA + SSAA)
OGSSAA und Hybride brauchen mehr Leistung als SGSSAA und sehen teilweise schlechter aus. Sie sollten dann genutzt werden, wenn SGSSAA nicht problemfrei möglich ist.

SGSSAA (Sparse Grid Super-Sampling-AA) = FSSGSSAA (Full Scene SGSSAA)
Bietet aufgrund der gestreuten Abtastung eine bessere Glättung pro Sample, das bedeutet, 4x SGSSAA ist besser als 4x OGSSAA


Um OGSSAA, SGSSAA, etc. überhaupt in Spielen verwenden zu können, müssen oft spezielle Bits im jeweiligen Spiel-Profil mittels Nvidia Inspector gesetzt werden. Ein Thread im 3DCenter Forum kann dabei als Übersicht dienen: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=556672
 
Zuletzt bearbeitet:
Ich kannte das bisher nur so wie ich es geschrieben habe. wieder was gelernt.
Aaaaber: wenn beim Downsampling das Bild in Originalauflösung an den Monitor geht, wieso kann ich dann über DP höhere Auflösungen durchschleifen als über DVI? Für 1080p@144Hz reicht DVI aus, bei 1,5xHD muss ich aber schon auf 100fps runter. Mit DisplayPort oder HDMI sind da auch noch 144Hz drin.

Und wieso ist der Leistungsverlust bei Nutzung von 4xSSAA (das SGSSAA besser ist ist mir bekannt) geringer als eine Erhöhung der Auflösung um 50%? Der Logik nach müsste SSAA ja mehr Leistung Kosten.

Klassisches Super-Sampling (auch bekannt als FSAA, das Ur-AA) ist ja auch anders angegeben und nennt sich dann auch nicht mehr AA. Das wird z.B 2x2 geschrieben und ist dann gleich mit DSR nur dass letzteres scheinbar immer geht.

Quellen liefere ich dir morgen nach, Handy ist das so eine Sache mit 20 Tabs...
Edit: Dann bekommst du der Ordnung halber auch Post.
 
Zuletzt bearbeitet:
Thanok schrieb:
Aaaaber: wenn beim Downsampling das Bild in Originalauflösung an den Monitor geht, wieso kann ich dann über DP höhere Auflösungen durchschleifen als über DVI? Für 1080p@144Hz reicht DVI aus, bei 1,5xHD muss ich aber schon auf 100fps runter. Mit DisplayPort oder HDMI sind da auch noch 144Hz drin.
Mit Downsampling kenne ich mich kaum aus. Was du berichtest hängt imho immer vom jeweiligen Monitor ab. Dass nicht der Monitor sondern die Grafikkarte das Bild herunterrechnet steht eigentlich in so ziemlich jedem Artikel über Downsampling.


Thanok schrieb:
Und wieso ist der Leistungsverlust bei Nutzung von 4xSSAA (das SGSSAA besser ist ist mir bekannt) geringer als eine Erhöhung der Auflösung um 50%? Der Logik nach müsste SSAA ja mehr Leistung Kosten.
Von welchem Spiel bzw. welchen Settings redest du? Im Treiber gibt es so etwas wie "4xSSAA" nämlich nicht und wenn ein Spiel diese Option anbietet, muss man erst mal schauen was dann eigentlich gemacht wird. Oder meinst du vielleicht den Test von CB, wo bei der Hälfte der Spiele etwas von 4xSSAA steht? Ehrlich gesagt weiß ich nicht, mit welchen Einstellungen CB da sowohl AMD als auch Nvidia Karten testet bzw. was damit überhaupt gemeint ist. Ich wüsste es aber wirklich gern. Vor allem weil im AA-Special der Begriff korrekt verwendet wurde: https://www.computerbase.de/2009-01/bericht-anti-aliasing-bei-ati-und-nvidia/3/

Edit:
Ich habe da wohl zu viel hineininterpretiert. Die 4xSSAA von CB entsprechen einfach nur 2x2, also 3.840×2.160 bei einer Auflösung von 1080p. Wenn man das mit den 4xAA Benchmarks vergleicht sind die FPS-Zahlen auch im zu erwartenden Rahmen. Welchen Benchmark meinst du also jetzt genau in deinem Beispiel?


Thanok schrieb:
Klassisches Super-Sampling (auch bekannt als FSAA, das Ur-AA) ist ja auch anders angegeben und nennt sich dann auch nicht mehr AA. Das wird z.B 2x2 geschrieben und ist dann gleich mit DSR nur dass letzteres scheinbar immer geht.
Der Begriff FSAA ist schon ziemlich alt und es ist auch fraglich, was damit heutzutage eigentlich gemeint ist. Der von mir verlinkte Thread leistet da ein wenig Aufklärung.
 
Zuletzt bearbeitet:
Habe ich es richtig verstanden.? Die GTX 980 ist 31% schneller wie eine R9 290 in 1080P. ?
 
Thanok schrieb:
Die Titan war auch eine geile Grafikkarte - bei Release war sie deutlich schneller als alles auf dem Markt, bot einen extrem hochwertigen Kühler und hohe Leistungsreserven, verbrauchte vergleichsweise wenig und hatte von Haus aus einen großen Speicher.

Bis auf die Speichergröße (und den Verbrauch, aber wen kümmert der schon, bei so einer Karte? ;) ) war die über 7 Monate früher erschienene GTX690, mit der der "Titan-Kühler" damals ja eingeführt wurde, aber mindestens ebenbürtig bzw. leistungsmäßig klar überlegen. Das hat für mich die Titan damals schon zum Start entzaubert. Wäre sie die ultimative Knaller-Karte gewesen, die alles dagewesene in den Schatten stellt... aber so?

Klar, Multi-GPU hat immer so seine Tücken und wie gesagt war der VRAM der GTX690 schon arg knapp, für eine Karte dieser Leistungsklasse. Deshalb hätte ich 1000€ für die Titan, wenn sie denn etwa gleich schnell wie eine GTX690 (oder zwei GTX680) gewesen wäre, sogar als angemessen angesehen. Aber im Vergleich war die Titan dann doch deutlich zu schwach, um den hohen Preis zu rechtfertigen und war damit einfach nur ein Luxus-Objekt für Enthusiasten, die gar nicht auf den Preis schauen. Und aus Nvidias Sicht halt eine clevere Vorbereitung für die GTX780, deren saftiger Preisaufschlag von ca. 150€ gegenüber den Vorgängermodellen dank des "Preisbrechers" Titan gar nicht als solcher wahrgenommen wurde. (Von CB erhielt die GTX780 als günstiger Titan-Killer direkt eine Empfehlung.)

Um so mehr sehe ich das so, dass man die diversen Titan bei allen P/L-Betrachtungen konsequent außen vor lassen sollte. Wie absurd das sonst wird, sieht man z.B. daran, dass sogar SLI aus zwei Titan Black "günstig" wird, wenn man es mit der Titan Z (zumindest zum Einführungspreis) vergleicht.
Wenn von Review-Websites die Titan hergenommen wird, um daran zu zeigen, wie viel besser bei der GTX980 das P/L-Verhältnis geworden ist, dann grenzt das an mutwilliger Irreführung.
 
Zuletzt bearbeitet:
So, zum AA und Downsampling:

Beim Downsampling habe ich in dem Artikel von Golem, auf den ich mich berufen wollte, den letzten Abschnitt übersehen. Da heißt es ebenfalls dass das Bild auf der Grafikkarte heruntergerechnet wird und man lediglich mit Timings, Bildwiederholungsrate, etc. spielen muss damit die Karte diese "falschen" Auflösungen auch im Buffer zulässt. Somit ist DSR das gleiche wie Downsampling und das Ur-FSAA (Full Scene Anti Aliasing), mit dem Unterschied dass es eben immer zu funktionieren scheint und man sich lästiges getweake wie beim DS sparen kann.

Beim SSAA bin ich ebenfalls in eine Falle getappt. Natürlich ist SSAA im Prinzip das gleiche Kind, aber eben mit einem anderen Namen. SGSSAA ist davon (da waren wir uns immerhin einig) eine Abart die etwas schöner arbeitet. Keine Ahnung wie, aber es tut es.
 
Welche 970 GTX ist eigentlich jetzt am empfehlenswertesten, auch was Übertaktbarkeit angeht?

Die Gigabyte Gaming z.B. hat 3 Lüfter, die Gigabyte Windforce aber auch. Die Gaming ist aber höher getaktet. Von der Übertaktbarkeit müssten die aber ähnlich sein?!

Ich glaube, ich warte auf die Gaming, wenn die selektierte Chips hat?!
 
Zuletzt bearbeitet:
Zurück
Oben