News Nvidia GeForce GTX 1070: Titan-X-Leistung bei GTX-960-Verbrauch

Ja, ist auch alles so mega komplex, nicht? Kein Wunder klappt die Diskussion hier nicht...
 
DocWindows schrieb:
Nein, DirectX 12 hilft AMD dabei. Async Compute bringt nochmal bis zu 10 % zusätzlich obendrauf.. DirectX 12 sorgt dafür dass das CPU-Limit, welches AMD bei DX11 Probleme bereitet hat, aufgehoben wird. Das führt zu einer besseren Auslastung der Karte und mehr FPS. Async Compute kann, falls immer noch Rechenkapazität ungenutzt bleibt, die interne Auslastung nochmals optimieren und noch etwas mehr Leistung freisetzen.

Weil nVidia den DirectX 11 Treiber optimiert hat, besonders die Sache mit dem CPU-Limit. Das sorgt dafür, dass DX12 bei nVidia nicht soviel Zugewinn bringt wie bei AMD, die auf DX11 Optimierungen verzichtet haben.

Grundsätzlich nicht schlecht erklärt, dazu aber noch folgendes, es werden oft sehr viel mehr als nur 10% werden durch ASC, und auch bei NV schafft DX12 noch eine niedrigere CPU Last und so je nach Game sehr viel mehr Frames.
Aber es stimmt schon, die AMD's haben meist viele Shader und um die anständig auszulasten braucht es CPU Power. Und mit dem ST Ansatz von DX11 läuft man da viel schneller in das CPU Limit, welches NV durch Treiberoptimierungen gut verschieben konnte. Was aber an Native DX12 Games nicht herankommen wird.

Weil die Leute nicht wissen wovon sie reden.

Du willst jetzt behaupten der Holzhammer Ansatz von NV bei Async Compute darf nicht kritisiert werden?
Sorry aber da sind die Async Shader von AMD um Klassen besser. Die spielen keinesfalls auf dem gleichen Level!
 
AnkH schrieb:
Ja, ist auch alles so mega komplex, nicht?

Stimmt, weil man sich nicht auf einen Punkt beschränkt: Nur die Leistung zu sehen und diese unabhängig vom Namen oder was für Karten noch kommen werden oder was alles hätte möglich sein können oder dass früher auch die Tomaten besser geschmeckt haben, in das HIER und JETZT einzuordnen.

Wenn man das macht, dann sieht man, dass man für mehr Leistung tatsächlich auch mal weniger Geld aufbringen muss.
 
modena.ch schrieb:
Du willst jetzt behaupten der Holzhammer Ansatz von NV bei Async Compute darf nicht kritisiert werden?

Ich will damit sagen, dass die Leute zunehmend die Effekte von DX12 als solches und die von Async Compute verwechseln. Ursache und Wirkung wird immer öfter durcheinandergeworfen. Bei manchen Beiträgen könnte man meinen DX12 wäre nur eine kleine Zusatzoption zu Async Compute.

Und wenn ich die Tests zu AotS und den Sondertest zu Async Compute im großen Review zur GTX1080 auf Hardwareluxx anschaue, dann sehe ich momentan keinen besonderen Grund warum ich ausgerechnet AMDs Async Compute bräuchte.
Ergänzung ()

BookerDeWitt schrieb:
nVidia mag den DX11-Treiber hervorragend auf geringen Overhead optimiert haben, dennoch finde ich deine Formulierung schon stark an der Grenze des Trollens, schliesslich sprichst du AMD (ohne Quellen oder Begründung) jegliche DX11-Treiber-Optimierung ab.

Dann denk dir doch einfach noch das Wort "diese" zwischen "auf" und "DX11" dazu. Kannst auch gerne eine eigene Erklärung formulieren.

BookerDeWitt schrieb:
Dann erleuchte uns mit Wissen (und belegbaren Fakten).

Dich erleuchte ich schonmal gar nicht, weil mir dein Ton und die "von oben" herablassende Art nicht gefällt. Das fällt immer öfter und immer unangenehmer auf.
 
Zuletzt bearbeitet:
moquai schrieb:
Stimmt, weil man sich nicht auf einen Punkt beschränkt: Nur die Leistung zu sehen und diese unabhängig vom Namen oder was für Karten noch kommen werden oder was alles hätte möglich sein können oder dass früher auch die Tomaten besser geschmeckt haben, in das HIER und JETZT einzuordnen.

Dann aber bitte konsequent. DU machst das nämlich genau auch nicht, wenn Du die Aussage machst: "die GTX-1070 darf soviel kosten, denn sie leistet ja auch mehr als eine 980Ti". Schwupps, schon wieder nicht nur im "HIER und JETZT" sondern direkt Bezug auf die Vorgängergeneration genommen, inkl. Namensgebung etc. Nur eben in einer ordentlich schwachsinnigen Art und Weise, zuminest in der HW Branche. Denn, ich wiederhole mich, mit der Hoffnung, dass Du es mal begreifst: wenn das Nachfolgemodell immer gleich viel kosten darf wie das Modell aus der Vorgängergeneration, wessen Leistung es erreicht, hat man je nach Betrachtungsweise relativen Stillstand oder massive Teuerung. Aber ganz ehrlich, ich vermute, dass der von mir fett markierte Satz für einige Leute hier schlichtweg etwas zu komplex ist, um ihn zu verstehen. Ansonsten kann ich mir eben Schlussfolgerungen wie oben ("der Polo müsste eigentlich günstiger sein, weil er unter dem Golf ist.") nicht erklären, tut mir leid, das mal mit aller Deutlichkeit schreiben zu müssen...

moquai schrieb:
Wenn man das macht, dann sieht man, dass man für mehr Leistung tatsächlich auch mal weniger Geld aufbringen muss.

Das ist nicht nur "mal" so, das war bisher bei JEDER x70 Grafikkarte von nVidia der Fall, da JEDE x70 die x80 der Vorgängergeneration übertroffen hat. Mit dem Unterschied, dass sich die neue Generation eben eine Klasse höher orientiert mit dem Preis, und da kommt eben das Polo vs. Golf Beispiel zum Tragen...
 
Na ja Pascal scheint jedenfalls keine Schlechte Architektur zu sein. Kein Wunder, denn es ist mehr oder minder ein Shrink der erfolgreicher Maxwell plus ein paar neue, aber für mich unbedeutende Verbesserungen. Durch den Shrink steigt die Energieefizienz und der Takt, dies führt logischerweise auch zu mehr Leistung.
Die DX12 Schwäche plus AS Schwäche hat Pascal aber auch geerbt und macht es für mich völlig uninteressant, gerade mit Blick auf Total War, wo GTX 1070 sogar gegen die normale Fury (ohne X) unterlegen ist.
 
DocWindows schrieb:
Weil nVidia den DirectX 11 Treiber optimiert hat, besonders die Sache mit dem CPU-Limit. Das sorgt dafür, dass DX12 bei nVidia nicht soviel Zugewinn bringt wie bei AMD, die auf DX11 Optimierungen verzichtet haben.

Insbesondere hat Nvidia auch unter DX11 Multithreading implementiert und AMD nicht. Sieht man u.a. im Drawcall Test des 3DMark.
 
@kisser: Ich will doch bei der ursprünglichen Fragestellung keine Romane als Erklärung schreiben, sondern das einfach nur kurz verständlich umreißen. Man muss doch nicht immer bis ins allerkleinste Detail gehen.
 
modena.ch schrieb:
Und mit dem ST Ansatz von DX11 läuft man da viel schneller in das CPU Limit, welches NV durch Treiberoptimierungen gut verschieben konnte.

S.o. Auch DX11 unterstützt bereits (eingeschränkt) Multithreading.

http://laurabernhardt.weebly.com/blog/directx-11-multithreaded-rendering

https://msdn.microsoft.com/de-de/library/windows/desktop/ff476891(v=vs.85).aspx

@DocWindows
Ich gehe da nicht ins kleinste Detail, aber vielfach hat sich wohl der Glauben durchgesetzt, dass DX11 nur single-threaded arbeitet, daher wollte ich mal erwähnt haben, dass dem nicht so ist.
Ergänzung ()

issenia schrieb:
Die DX12 Schwäche plus AS Schwäche hat Pascal aber auch geerbt

Falsche Sichtweise.
Pascal hat keine DX12 Schwäche, sondern AMD hat bei allen anderen APIs (DX11, OpenGL) Schwächen

Da muss man nur mal die Rohleistungen der Chips vergleichen, um das zu erkennen.

1080 - 8,9 TFlops
Fury X - 8,2 TFlops
1070 - 6,5 TFlops
 
Zuletzt bearbeitet:
Hardware_Hoshi schrieb:
Das ist nur teilweise richtig. Wenn es zu Leckströhmen zwischen den Lanes kommt, kannst du jegliche Packdichte vergessen. Dann gibt es im Chip einen stromfressenden Heizofen ohne Gegenleistung. Bei den kleineren Polaris macht das eventuell nicht viel auf, weil diese nicht so viele Transistoren haben. Bei allen größeren Chips wird das Problem zunehmend größer.

Übrigens ist die gleiche Shaderanzahl zwischen AMD und Nvidia schlecht für AMD. Grund ist, dass GCN einfach mehr Shader als die Geforce-Architekturen benötigt um die gleiche Leistung zu erzielen.

Beispiel aus der 28nm-Generation:
Fiji: 4096 Shader
GM200: 2816 Shader (beschnitten in GTX980 Ti)

Rechne das doch einmal im Verhältnis um und vergleiche es mit der 14/16nm FF. Soweit ich weiß ist die 14nm-Varante knapp unter 10% kleiner (=Dichter) als die 16nm von TSMC. AMD müsste also trotzdem die Taktraten anheben, um mehr Leistung zu erzielen. Es sei denn, die Polaris chips sind nur reine shrinks. Das wäre jedoch dämlich!

Also erstens ist der Unterschied 14nm/16nm FF bei TSMC und GF/Samsung wahrscheinlich nicht, so wie es die Begriffe vorgaukeln exakt 1/8 kleiner, sondern könnten auch auf z.T. völlig unterschiedliche Größen kommen. Das "XXnm" steht inzwischen indirekt für ein "wie XXnm, wenn wir shrinken würden, aber wir haben einfach die Effizienz des Prozesses geändert".

Zweitens ist bei Fiji der Rest des Chips limitierend, es kommt einfach nicht genug "an", um die Shader ordentlich zu versorgen, das Chip-Frontend geht vorher krachen. Gab es sogar bei Fiji-Test von CB Infos dazu.
 
kisser schrieb:
Ich gehe da nicht ins kleinste Detail, aber vielfach hat sich wohl der Glauben durchgesetzt, dass DX11 nur single-threaded arbeitet, daher wollte ich mal erwähnt haben, dass dem nicht so ist.

Wenn ich die Bemerkungen zu meiner Antwort lese, dann sollte ich wahrscheinlich besser nichts zu den Fragen sagen. Zumindest nicht wenn ich nicht bereit bin eine halbwissenschaftliche Arbeit über mindestens 20 Seiten zu den 3 gefragten Punkten zu verfassen.
Schon lustig, dass grad ein einzier Poster außer mir versucht hat die Frage zu beantworten, aber meine Antwort gleich wieder auseinandergepflückt wird, und zwar von Leuten die die ursprüngliche Frage überhaupt nicht beantwortet haben oder beantworten wollten. Ich finde nach wie vor, dass man auf einfache Fragen auch ruhig mal ne einfache Antwort geben darf, ohne gleich vom Hundertsten ins Tausendste zu kommen.
 
Mittlerweile gibt es nun wirklich zig Tests zu dieser Karte und ja, was kann man sagen?

Es wird ein Bestseller werden. Schon die Referenzkarte lässt sich ordentlich übertakten, die Customs werden günstiger sein und alles andere auch besser machen.
 
...
 
Zuletzt bearbeitet: (hier stand (mal wieder) Käse...)
CB hat wohl keine GTX1070 zum Testen bekommen...ist aber auch nicht so wichtig, da wohl wirklich kaum Jemand die Founder's Edition kauft, die auf allen Ebenen schlechter sein wird als eine Customlösung.
 
Das P/L Verhältnis ist das was eine x70 so interessant macht. Und solches ist hier mieserabel.

Am Anfang jeder Generation sagt man: "wow, x80 Ti Leistung für weniger Geld!!"
Sollte das nicht auch so sein? Ist immerhin über ein Jahr her dass diese existiert.
 
Oder man gewöhnt sich dran, im schnelllebigen Hardwaremarkt nicht Unsummen für angebliche Zukunftssicherheit auszugeben.
Nö warum sollte ich, ich hab keine angebliche Zukunftssicherheit, ich hatte sie zu 100% immer: https://www.computerbase.de/forum/threads/eure-grafikkarten-historie.235090/page-107#post-17603646

Und das beste, ich weis warum das so war. :)

Meine Titan X hält wieder 4 Jahre durch, inkl. der Vram. Um was wetten wir. :D Dazu dann noch mein extrem lang lebiger Intel 6 Kerner und ab gehts bis 2019.

liegst Du (auch wegen der 12 GB) mit der Titan X noch ziemlich gut auf 1440p/WQHD, solange Du nicht auf 4K/UHD schielst.
Das stimmt im Moment schon, aktuell zocke ich sogar Witcher 2 mit UHD Textur mods auf 4k mit getackerten 60FPS. Ein Genuss mit DSR auf Anschlag.

Aber um das geht es gar nicht, das eine neue Titan die ersten 2 Jahre viel zu viel Rohleistung und Vram hat ist klar. Mir geht es eher um das 3. und 4. Jahr. Da trennt sich dann die Spreu vom Weizen. Welche GPU hat hier noch ausreichend Rohleistung und vor allem Vram für max. Texturen etc. Das war bei mir bis jetzt immer der Fall. Vielleicht mal Schatten ein wenig runter, Unschärfe Effekte etc. Aber meist sind max. Details bis zum Schluss drin. 30% mehr Pixel sind hier schon gefährlich, da ich die Rohleistung an anderer Stelle irgend wie wieder rein bekommen muss. OC mache ich nicht die Karte läuft eh schon ab Werk mit 1300Mhz. Ich hab hald den Vorteil bei 21:9 1080p das ich die nativ auf 16:9 umstellen kann. Dann hat man zwar schwarze Balken aber die Rohleistung ist wieder frei und die Bildqualität stimmt trotzdem. Nur wegen der Option traue ich mir das überhaupt.

Ich gehe aber davon aus, dass letzteres vor Navi oder Volta Chips eh kein Thema für Dich ist.
Bin mir nicht sicher ob ein nativer 4k Monitor sogar mit big Volta(ca. 2019) überhaupt ein Thema wird, die Entwickler stecken ja die Rohleistung der neuen Karte in neue Effekte, im Prinzip ist hier nie was frei für so eine hohe Rohleistung, außer man hat eine brand neue GPU so wie ich gerade. Mir macht das aber auch nix aus. Ich bin absolut begeistert von DSR Faktor 4 und hab kein Problem damit meine 1080p Auflösung dann damit aufzuwerten. Ob ein nativer 4k Monitor da ein noch besseres Bild hat interessiert mich nicht. Ich bin schon zufrieden mit der Qualität von DSR Faktor x4. Und zwar so flexibel wie ich das gerne hätte. Einfach abschaltbar wenn die Rohleistung dafür nicht reicht. oder was zur Zeit sehr oft der Fall ist, der Entwickler das UI viel zu winzig dann darstellt. Bis jetzt hab ich nur 2 Spiele durch diesen Umstand auf 4k zocken können, GTA 4 und Witcher 2. Beide male ein Genuss, aber "must have" für mich definitiv nicht. Reicht meine Rohleistung nicht aus zb. bei einem Game das keine Kantenglättung hat(GTA 4) für 4k Auflösung, wird das Game beiseite gelegt und auf die nächste GPU gewartet. Ich kaufe keine neue Hardware nur weil ein Game das gerne so hätte. Da muss das Game dann warten.
 
Zuletzt bearbeitet:
Hat CB keine 1070 bekommen? Das wäre doch sehr verwunderlich!? Eine kurze Stellungnahme dazu wäre schön, warte schon den ganzen Tag auf den Test.
 
AnkH schrieb:
Schwupps, schon wieder nicht nur im "HIER und JETZT" sondern direkt Bezug auf die Vorgängergeneration genommen, inkl. Namensgebung etc.
Es ist einfach herrlich, wenn Menschen etwas nicht begreifen, denn Du begreifst nicht, dass ich diese Aussagen nicht selber treffe, es sind nur Aussagen von anderen Usern, an denen ich dementsprechend Kritik übe.
 
Loro Husk schrieb:
Hat CB keine 1070 bekommen? Das wäre doch sehr verwunderlich!? Eine kurze Stellungnahme dazu wäre schön, warte schon den ganzen Tag auf den Test.

Nein, haben Sie nicht, steht ein paar Nachrichten vorher hier.
 
nebulus schrieb:
Nein, haben Sie nicht, steht ein paar Nachrichten vorher hier.
Die wahren Internas werden wir kaum erfahren. Ich vermute, man hat einfach danach entschieden, wer der "wichtigere Werbepartner" ist. Und deshalb hat CB eben das Nachsehen.
 
Zurück
Oben