News GeForce GTX 1070: 1.920 Shader bei maximal 1,6 GHz und 150 Watt TDP

Das es immer wieder Leute hier im Forum gibt die meinen, Sie müßten jedem erklären welche Firma man meiden soll und von welcher Firma man kaufen kann. Die tun so als ob hier nur dumme und blinde Leute durch die Gegend laufen, die selbst zu blöd sind die beste und preislich attraktive Hardware für sich zu kaufen.
 
Sind die alten Nvidia Karten wirklich so viel langsamer geworden?
Die Gründe warum die nVidia Karten hier in den Benchmarks schlechter abschneiden - besonders die GTX780 - sind doch ganz andere!
Es liegt einfach daran, dass die GTX780 hier im Referenz-Design getestet wurde und dort überhaupt keinen vernünftigen Takt konnte!
https://www.computerbase.de/2015-05/grafikkarten-testverfahren-testsystem/2/
Gerade mal 921 Mhz - ich habe auch eine GTX780 und die läuft OHNE OC mit ~1.220 MHz - das sind über 30% mehr!
Wurde hier übrigens auch getestet:
https://www.computerbase.de/2013-07/palit-geforce-gtx-780-super-jetstream-test/

Mit anderen Worten, auf JEDEM Test der hier erscheint, kann ich für meine GTX780 rund 30% drauf rechnen - und das gilt für alle GTX780 im Custom-Design!
Und dann sieht die Welt eben schon wieder anders aus und keine 960 ist da in der Nähe!

Und was die Treiber betrifft, wenn ihr mit einem Treiber nicht zufrieden seid, dann installiert ihn doch einfach nicht - ich habe einen Treiber drauf der 1,5 Jahre alt ist und alles was ich anspiele läuft dennoch......
 
ich habe zwei referenz 780er und muss Lars_SHG recht geben. Selbst meine laufen mit 1180 und 1200 stabil im boost. auch verstehe ich nicht warum die hier die 1080 nicht auf 2,1 bekommen haben??? woanders geht es doch auch. Wer den takt hoch dreht sollte auch die lüfterkurve anpassen. mit 100% lufter schafft die 1080 nämlich locker uber 2 ghz mit ref kühler. das man dann nen jet neben sich hat steht auf nen anderen papier.
 
@etek_2: Wo anders haben sie die Karte auf 2,1 gebracht, weil sie offen auf dem Benchtable stand. Hier wurde sie in ein gekühltes Gehäuse eingebaut, also praxisnaher Test, da die meisten das Ding wohl in ein Gehäuse stecken wollen...und dort wird sie eben zu warm. Und diese Beobachtung haben viele Hardwareseiten gemacht.

Und außerdem geht hier das Thema um die 1070, nicht die 1080.
 
ich habe eine nvidia und eine amd karte verbaut zugegeben dass ich eine 960 4g und ein Radion hd 3600 512 mb die ich als adpter für meinen 2ten Bildschirm benutze. bin erst mahl froh das die die 1080 nicht mit 5 gb oder so kommt den wenn ich mit meiner sehr viel schwächeren karte 4gb voll kriege dann dann mit der 1080 sowieso
 
Terabyte100 schrieb:
und ein Radion hd 3600 512 mb die ich als adpter für meinen 2ten Bildschirm benutze.

Wofür denn als Adapter. An deiner 960 kannst du bereits 3 Monitore betreiben...
 
mein 2ter monotor hat vga meine 960 nicht
 
BookerDeWitt schrieb:
dann bezweifel ich sehr stark, dass dafür massive Entwicklungskosten notwendig waren.
Das ist halt vermutlich die typische nvidia Huang Milchmädchen Mathematik wie bei den Leistungsangaben.
Da werden eben Dinge aus zig Faktoren sinnlos zusammen addiert und es wird "10x so schnell als vorher" betitelt.
Bei der Entwicklung hat dann vermutlich nvidia ihre Kosten mit denen von TSMC (Fertigung), Micron (GDDR5X), Samsung/SK Hynix (HBM2) zusammengerechnet und herauskommt: Milliarden an Entwicklung. " Hey Pippi Langstrumpf...."
Da sagt komischerweise keiner was, aber wenn einer ankommt und sagt er hat eine 12Ghz CPU, weil er 4*3GHz addiert, wird er ausgelacht.

Gleichzeitig hat nVidia damit inoffiziell zugegeben, dass sie bei Maxwells Async-Shader-Support gelogen haben.
Genau wie bei den 67 Grad des GP104 unter Luft, bei gleichzeitig 2,1Ghz, beides utopische Werte für die Founders-Edition.
Nunja, aufgrund des Kundenverhaltens hat ja nvidia gelernt das sie mit einem gewissem Teil der Kundschaft eben alles machen können.
Der Kunde von heute will offenbar verarscht werden, hält die andere Wange auch noch hin und sagt Danke und Amen.

und die Leute?
Verteidigen es mit hochgehaltener Fahne und nehmen nVidia in Schutz(?).
Das ist ein psychologischer Aspekt den ich auch niemals verstehen werde.
Und im Notfall wird eben die "Overclockers dream" Keule geschwungen, welche alle Verfehlungen seitens nvidia legitimiert oder was auch immer.
Aber in der verdrehten Logik mancher ist man ja automatisch ein AMD Fanboy, wenn man nvidia kritisiert. Und das in einem Duopol, indem man die Wahl zwischen Pest und Cholera hat. :rolleyes:
 
Conceptions schrieb:
Das ist halt vermutlich die typische nvidia Huang Milchmädchen Mathematik wie bei den Leistungsangaben.
Da werden eben Dinge aus zig Faktoren sinnlos zusammen addiert und es wird "10x so schnell als vorher" betitelt.
Bei der Entwicklung hat dann vermutlich nvidia ihre Kosten mit denen von TSMC (Fertigung), Micron (GDDR5X), Samsung/SK Hynix (HBM2) zusammengerechnet und herauskommt: Milliarden an Entwicklung. " Hey Pippi Langstrumpf...."
Da sagt komischerweise keiner was, aber wenn einer ankommt und sagt er hat eine 12Ghz CPU, weil er 4*3GHz addiert, wird er ausgelacht.


Nunja, aufgrund des Kundenverhaltens hat ja nvidia gelernt das sie mit einem gewissem Teil der Kundschaft eben alles machen können.
Der Kunde von heute will offenbar verarscht werden, hält die andere Wange auch noch hin und sagt Danke und Amen.


Das ist ein psychologischer Aspekt den ich auch niemals verstehen werde.
Und im Notfall wird eben die "Overclockers dream" Keule geschwungen, welche alle Verfehlungen seitens nvidia legitimiert oder was auch immer.
Aber in der verdrehten Logik mancher ist man ja automatisch ein AMD Fanboy, wenn man nvidia kritisiert. Und das in einem Duopol, indem man die Wahl zwischen Pest und Cholera hat. :rolleyes:

ich stimme dir in absolut jedem punkt zu
 

Anhänge

  • dvi-vga-adapter.jpg
    dvi-vga-adapter.jpg
    35,1 KB · Aufrufe: 452
....ich warte bis die Neuen auf dem Markt sind und kaufe mir dann eine 980 oder aber einen 390X. Die bekomme ich dann zu dem Preis, der mir eine GPU der Leistungsklasse wert ist. Die reicht dann locker für die nächsten zwei bis drei Jahre.
 
Also das Thema Strom Sparen find ich am interessantesten, Wenns dann noch dementsprechend kühl bleibt.
NIcht jeder will gleich noch ein neues Netzteil oder ein neues Gehäuse kaufen..
Eben erst eine relativ kühle GTS250 mit einem Athlon 3800+ AM2 auf nem 13 Jahre alten 20 Pin ATX Netzeil mit 22A auf 12V mit nem 20 Jahre alten FSC ATX Gehäuse verheiratet.. Was will ich sagen. Windows 10 läuft...
Demnächst kommt der FX60 mit ner 8800GTS und nem genauso altem 26 A ATX Teil dran
Wobei ich immer noch dafür plädiere sich gleich eine Konsole zu holen.
 
Zuletzt bearbeitet:
Der dvi anschlus ist schon vergeben
 
Bin schon so gespannt auf den speicher und das feature.
das trauen die sich doch nicht nochmal, beim besten willen nicht.
Hmm bin ich mir da wirklich so sicher ? :rolleyes:
Oder ist das neue feature der GDDR5 mit dem kleinen 256bit Bus?
Hmm Wird sicher spannend.
 
Zuletzt bearbeitet:
etoo schrieb:
Bin schon so gespannt auf den speicher und das feature.
das trauen die sich doch nicht nochmal, beim besten willen nicht.
Hmm bin ich mir da wirklich so sicher ? :rolleyes:
Oder ist das neue feature der GDDR5 mit dem kleinen 256bit Bus?
Hmm Wird sicher spannend.
Ist jetzt nicht so abwegig. :)
 
Wenn die GTX 1070 40% schneller als eine GTX 970 ist und 8GB Speicher hat, dann ist das schon ein Update, was sich lohnen würde. Ich warte einmal ab, was die Testberichte sagen werden und wo der Preis liegt.
 
Siegfriedphirit schrieb:
....ich warte bis die Neuen auf dem Markt sind und kaufe mir dann eine 980 oder aber einen 390X. Die bekomme ich dann zu dem Preis, der mir eine GPU der Leistungsklasse wert ist.
So langsam geht es los mit dem Preisverfall:
http://geizhals.de/?phist=1187168
 
Zurück
Oben