Test Nvidia GeForce GTX 980 und GTX 970 im (SLI-)Test

Arno Nimus schrieb:
Und 4GB Vram (wo bereits die Titan vor 1,5 Jahren 6GB bot) sowie ein Speicherinterface von nur 256bit Breite sind ja nun im Jahr 2014 angesichts der aufkommenden 4K-Ära und Highres-Texturen nicht eben "Indizien" für eine Highendgrafikkarte, oder?!

Dir ist schon klar, dass das Speichersystem völlig umgebaut worden ist? Und 3. Gen Delta Color Compression sagt Dir sicherlich was. Laut Nvidia bringts bis zu 29% mehr "reale" Bandbreite (zB bei Metro LL).

Erstaunlich ist auch, dass Du 4k anführst, denn Maxwell wurde genau dahingehend optimiert. Die Display Engine kann sogar 5k darstellen und 4 4k Displays ansteuern (Kepler konnte nur "2" 4k Displays)....mmhhh...was nun?
 
Zuletzt bearbeitet:
@Arno: Naja gut das kann ich zumindest teilweise nachvollziehen.
Aber nach der Argumentation müsstest du ja sagen, dass es bis heute keinen würdigen Nachfolger für die GTX280 gibt. Die hat nämlich ein 512Bit breites Speicherinterface.

Wichtig ist nicht das Speicherinterface, sondern die Datenrate und wie effizient die Daten darüber geschleust werden können. Hier hat NVidia (genau wie AMD) bei der neuen Generation auf eine Komprimierung der Daten gesetzt und außerdem einen größeren Cache, weshalb man auch mit der kleineren Speicherdatenrate keine Probleme hat.
 
t3chn0 schrieb:
Also, ich habe jetzt beide 970er hier. Die Karten sind im Referenz-Design

Du weißt wie das 970er Referenz-Design aussieht? Wie das?
 
met schrieb:
Jein. Eigentlich war GM204 ja als GM104 in 20nm geplant. Die Größe ist also eher ein Resultat des nicht vollzogenen Strukturwechsels (398 / 28 * 20 = 284mm²). Das haut also äußert präzise hin.
Bedenke dass wir hier eine quadratische Funktion vor uns haben, ich meine die Verkleinerung liegt bei 96%. Daher glaube ich auch nicht dass ein GM204 im 20nm geplant war. Der Chip in 20nm hätte etwa 200-220mm^2 was für Mittelklasse viel zu klein ist.

PS: Auf dem Handy getippt.
 
HansOConner schrieb:
Ja, habs gesehen, taktbereinigt sieht die GTX 980 wie schon mehrfach angesprochen gegenüber der 780 / Ti ganz schön alt aus. Deshalb ist der Aufpreis zur GTX 980 total ungerechtfertigt. Warte auf den Big-Chip GTX 1080, welcher dann übertaktet hoffentlich wieder 30-40% schneller ist.

Der Test von Hardwareluxx ist doch total für den Hintern. Da wird eine 780 Ti auf 1200MHz übertaktet, was keine einzige Custom Karte liefert, während die 980 sogar heruntergetaktet werden muss um auf 1200MHz zu kommen. Dass man eine 980 auch übertakten kann ist dir wohl entfallen? Das wurde hier auch schon mehrmals angesprochen, aber komischerweise reitest du trotzdem noch auf diesem Punkt herum. Wenn du dir die 980 nicht kaufen willst, dann brauchst du das auch nicht zu machen. Es zwingt dich niemand. Mit einer 780 (Ti) kann man die nächsten Monate auch noch gut abwarten. Nur lass bitte diese extrem sinnlosen Vergleiche um deine Hardware zu rechtfertigen. Die 980 hat übrigens noch andere Merkmale, die weitaus gewichtiger sind als die paar Prozent mehr (oder weniger) Performance.
 
Zuletzt bearbeitet:
Außerdem ist IPC doch Wurst wenn am Ende Leistung und Verbrauch passen - das ist bei Maxwell der Fall.
Vergleicht man 980 und 780 so liegt die IPC trotz weniger Shadern sogar höher.

PS: Handybeitrag.
 
Zuletzt bearbeitet:
Also nach dem Test von Anandtech zu urteilen, funktioniert das Übertakten großartig.
1,5 GHz Maximal Takt scheinen druchaus üblich zu sein. Bei der Frequenz ist die GTX980 dann zwar ungefähr so schluckfreudig wie eine GTX 780 Ti, bringt aber auch zwischen 12% und 40% mehr Performance auf die Waage.
Das ist definitiv kein schlechtes Ergebnis.
 
SimsP schrieb:
Weißt du was die IPC ist?
Insructions per Clock. Wird aber meist im Zusammenhang als Leistung pro Takt bezeichnet.
 
@Thanok

Du kennst die Abkürzung, aber das was Du schreibst, passt nicht zu IPC.

Außerdem ist IPC doch Wurst wenn am Ende Leistung und Verbrauch passen - das ist bei Maxwell der Fall.
Vergleicht man 980 und 780 so liegt die IPC trotz weniger Shadern sogar höher.

Deswegen kam die Frage...
 
Ich verstehe nicht was du meinst. Die 980 hat etwas mehr IPC als die 780 aber weniger als die Ti.
Das diese in meinen Augen zweitrangig ist solange das Endergebnis stimmt ändert daran nichts.
 
SimsP schrieb:
Also nach dem Test von Anandtech zu urteilen, funktioniert das Übertakten großartig.
1,5 GHz Maximal Takt scheinen druchaus üblich zu sein. Bei der Frequenz ist die GTX980 dann zwar ungefähr so schluckfreudig wie eine GTX 780 Ti, bringt aber auch zwischen 12% und 40% mehr Performance auf die Waage.
Das ist definitiv kein schlechtes Ergebnis.

Also ich hab den Test eben genommen, hab die 780TI x1,3 genommen (realistisch, da Referenztakt unter 950MHz & da Performancegewinn 1:1 ) und gegen die 980 OC Ergebnisse gerechnet. Fazit 780 Ti ist im Schnitt schneller. Wie schon in anderen Tests zu sehen.
 
Zuletzt bearbeitet:
hrafnagaldr schrieb:
Ja, das Messequipment von Tomshardware kann sich sehen lassen.

Das Equipment ist gut, aber für die Messungen ungeeignet, die Messungen sind daher Müll.
Es lassen sich mit diesem Aufbau keine genauen Stromverläufe erfassen, das das Shannon-Nyquist Theorem verletzt wird.

http://de.wikipedia.org/wiki/Nyquist-Shannon-Abtasttheorem

Die Messungen sind damit hochgradig vom Zufall abhängig.

Die Stromaufnahme eines CMOS Transistorpaares ist (angenähert) dreiecksförmig, siehe

http://www.eti.uni-siegen.de/es/inhalt/lehre/cdt/folien_ws/29-34.pdf (Seite 2)

D.h. im Spektralbereich ergibt sich eine diskretes Linienspektrum eines dreieckförmigen Signals mit der Frequenz der GPU als Mittenfrequenz. Das Spektrum reicht (wen man groesse Fehler vermeiden will, werden die Grundwelle und die 3. und 5. Oberwelle betrachtet) bis zum 5-fachen der GPU-Frequenz, also bis rund 7,5 GHZ (bei 1,5 GHz GPU).

Da mit einem Oszilloskop zu Messen, das gerade mal bis 500 MHz geht zeugt von Unkenntnis über Signaltheorie.

Also: Equipment gut, Messungen unbrauchbar.
 
@Kisser:
Gemessen wird zwischen Power-Connector und Netzteil. Der Arbitrator der Grafikkarte ist in der Lage, im Bereich von 5-10 Mikrosekunden über den VR-Chip die Versorgungsspannung der GPU in gewissen, granulären Schritten den Telemetriedaten anzupassen, mehr nicht. Das heißt im Endeffekt, dass die Spannungswandler mit maximal 100-200 KHz arbeiten. Auch dort erfolgt noch einmal eine ordentliche Glättung. Um dann die Ströme zwischen Platine und PSU zu messen, reicht ein 500 MHz Oszi mehr als aus. Die GPU und deren Takt spielen dabei überhaupt keine Rolle mehr. Erkläre mir doch bitte, wie ich die Einflüsse des GPU-Taktes nach der VR noch sinnvoll erfassen kann. Würde ich das wirklich können, dürfte die Grafikkarte so gar nicht mehr verkauft werden.

Wir haben von einem Grafikkartenhersteller Referenzmessungen machen lassen, die am Ende auf die Genauigkeit der Stromzangenadapter hinauslaufen. Die Differenzen liegen weit unterhalb von einem Watt, genauer wird man es kaum brauchen. Aber vielleicht klärst Du uns ja auf und beweist, das die Ingenieure des Messgeräteherstellers und des VGA R&D komplette Idioten sind.
 
Zuletzt bearbeitet:
JmGer schrieb:
Naja, also wenn ich den Benchmarks von tomshardware/igor und denen hier auf cb glauben darf, dann scheint mantle auch in höheren Auflösungen keinen Vorteil mehr zu bieten. Ich gehe ja mal davon aus, dass die OC Varianten bei den 970ern auch noch etwas rausholen. Aber hier scheint ja der Standardtakt schon mehr fps gerade aus mantle-Spielen wie BF4 und Thief zu ziehen und AMD kann mal gerade so mit aktiviertem mantle mithalten. http://www.tomshardware.de/geforce-gtx-980-gtx-970-maxwell-gpu,testberichte-241646-8.html

Wenn also trotz aktiviertem mantle AMD mit NV gleich aufliegt, bleiben für mich nur noch die zahlreichen gameworks.features, da steht auch nur subjektiv NV weit vor AMD.
Also Thief und BF4 sind die beiden bekannten Mantle Spiele, und da wollte Nvidia Mantle nicht so gut aussehen lassen und veröffentlichte seinen "Wuntertreiber", der natürlich nur in den beiden Spielen höhere Leistungssteigerungen lieferte, und zwar insofern, dass die CPU Last verringert wurde und die GPU besser ausgelastet werden kann(was bei schwächeren GPUs nichts brachte), also genau wie bei Mantle
https://www.computerbase.de/2014-04/nvidia-geforce-337.50-benchmark-test-wundertreiber/3/
https://www.computerbase.de/2014-02/amd-mantle-ersteindruck/2/

Auch PvZ und Sniper Elite 3 unterstützen Mantle, Benchmarks konnte ich aber nicht finden. Es ist halt die Frage, ob Nvidia auch in Zukunft für jedes Mantle Spiel einen entsprechend CPU Overhead reduzierenden Treiber veröffentlichen wird und diesen Aufwand betreiben kann. Es sollen ja 47 Studios am Betaprogramm zu Mantle teilnehmen, und jedes Frostbite Engine Spiel wird es anbieten. Das nächste wird Dragon Age sein und ein Dutzend weiterer Spiele, die darauf basieren, soll folgen.
Was du mit den "zahlreichen Gameworks Features meinst", verstehe ich immer noch nicht. Aber da du eh zu Nvidia tendierst, kauf doch einfach eine GTX970, wird sicher kein Fehlkauf sein.

edit: als Maschinenbauer bin ich nur mit den Grundlagen der Elektrotechnik vertraut...Aber wenn man die Messungen von jemanden als Müll und unbrauchbar bezeichnet, muss man sich auch 100% sicher sein, denn falls das doch nicht stimmt, hat man sich furchtbar blamiert ^^
 
Zuletzt bearbeitet:
Ich kann jetzt nur für mich sprechen aber Mantle interessiert mich überhaupt nicht. Brauche kein Mantle, will kein Mantle und warte auf DX12. Bis dahin bin ich gut versorgt.

Richtig ist, das man Messungen nicht einfach so anzweifeln kann sondern durch eigene Messungen widerlegen muß. Bin auch seit 25 Jahre im Maschinenbau und da darf ich mir irgendwelche Blubber Aussagen überhaupt nicht erlauben. Habe aber öfters neue Kollegen dabei (zum anlernen) und da dreht sich mir manchmal der Magen rum. Von daher nehme ich nicht alles was hier im Forum verbreitet wird so Ernst. Ist halt ein Forum, wo jeder ohne Folgen schreiben darf.
 
FormatC schrieb:
Wir haben von einem Grafikkartenhersteller Referenzmessungen machen lassen, die am Ende auf die Genauigkeit der Stromzangenadapter hinauslaufen. Die Differenzen liegen weit unterhalb von einem Watt, genauer wird man es kaum brauchen. Aber vielleicht klärst Du uns ja auf und beweist, das die Ingenieure des Messgeräteherstellers und des VGA R&D komplette Idioten sind.

Die Messungen sind sicherlich gut durchgeführt worden, aber mit welchem Lastszenario?
CUDA? Welche Anwendung?
 
MikelMolto schrieb:
Ich kann jetzt nur für mich sprechen aber Mantle interessiert mich überhaupt nicht. Brauche kein Mantle, will kein Mantle und warte auf DX12. Bis dahin bin ich gut versorgt....
Wenn mit Windows 10 (meine Spekulation) das Betriebssystem Abo eingeführt wird, freuen sich bestimmt viele Linux und Mantle nutzen zu können. AMD soll ja jetzt auch daran arbeiten.
 
SimsP schrieb:
Also nach dem Test von Anandtech zu urteilen, funktioniert das Übertakten großartig.
1,5 GHz Maximal Takt scheinen druchaus üblich zu sein. Bei der Frequenz ist die GTX980 dann zwar ungefähr so schluckfreudig wie eine GTX 780 Ti, bringt aber auch zwischen 12% und 40% mehr Performance auf die Waage.
Das ist definitiv kein schlechtes Ergebnis.

Schafft den gleichen oc - Takt auch eine GTX 970 ??
 
Zuletzt bearbeitet:
Zurück
Oben