News GeForce GTX 1070 Ti: Nvidias „GTX 1080 Light“ erscheint am 26. Oktober

Da freuen sich die Miner über GDDR5 non X.
 
NighteeeeeY schrieb:
Find ich irgendwie seltsam. Ne 1070 OC ist doch schon so schnell wie ne 1080.

Da musst Du aber schon hart ocen. In FHD mag sich das nicht so bemerktbar machen, aber spätestens ab 1440p lassen sich ~500 Shader nicht einfach so durch mehr Takt ersetzten.

Allerdings finde ich die 1070 generell auch das interessantere Produkt. Leider ist im Vergleich zur 1080 einfach zu teuer, weswegen man gleich diese nehmen kann.
 
DJKno schrieb:
Da freuen sich die Miner über GDDR5 non X.
Weshalb? Gibt es dort Beeinträchtigungen oder verstehe ich nur einem Witz nicht?


Was die 1070ti angeht:
Ich habe eine 1080 für 510€ gekauft und meine RX480 für 270 verkauft. Hätte noch besser laufen können, aber ich war zu spät dran. Eine Preissenkung der 1070 würde dem Markt besser zu Gesicht stehen. Vor allem da viele ihre Kaufentscheidung aus irrationalen Gründen an festen Summen wie bspw. 300 oder 350€ ausrichten.
 
Die Karte ist Quark und überflüssig, ich mag nVIDIA und deren Produkte, aber da kann man gleich zur GTX 1080 greifen.
 
@Deathangel008

Meiner Meinung nach auch komplett unnötig die Karte.
Haben wohl Angst vor der Vega 56....
 
durch den "normalen" GDDR5 und über 2420 ShaderEinheiten wird DAS sie neue mining karte für Ether :D, und der preis über der GTX1080
 
NighteeeeeY schrieb:
Find ich irgendwie seltsam. Ne 1070 OC ist doch schon so schnell wie ne 1080. Sollen sie doch einfach die normale streichen und mit der Ti ersetzen zum gleichen Preis. Oder die 1070 100€ günstiger machen. Oder 50. Ist auf jeden Fall sehr gedrängt da zwischen 300 und 500€.

zeig mir mal ne 1070 die so schnell sein soll wie eine 1080!
 
Haben wohl Angst vor der Vega 56....
Was ich erhlich gesagt nicht ganz verstehen kann. Die 1070 ist gleich schnell und dank diverser Custom Varianten in der Auswahl attraktiver. Wenn die Ausbeute bei der Produktion immer besser wird, warum nimmt man dann nicht die 1070 vom Markt und ersetzt die durch die ti?
Ergänzung ()

@motul300
mit FullHD Auflösung gibt es so einige Custom 1070 die eine Referenz 1080 in Schach halten. Sobald man aber mit 1440p spielt, sieht das wieder ganz anders aus.
 
da gehts doch nur um den psychologischen Effekt wieder statt AMD Vega (als letztes Release) ne Nvidia Karte im Kopf zu haben, in Zeitschriften aufzutauchen usw...

Als ob das was mit "Angst" zu tun hätte. Es ist einfaches Marketing mit Minimalaufwand. Die Werbung lässt man unendlich viele Magazine und Tech Seiten wie CB für lau machen.
 
@Krautmaster,

wie wahr, wie wahr. :p
 
@Zwirbelkatz

Ja die Latenzen sind einfach zu hoch ;)


@ Topic


Ich finde die Karte ja interessant und hoffe auf das selbe Spiel wie mit meiner 560TI 448 Cores ^^

Die wurde ja auch als "abfall" vekauft läuft aber für Fermi @0.938V recht gut und der ASIC von 89.3% ist sogar 96.1% besser als in der Datenbank. Ich hoffe daher das die 1070Ti ordentlich wird, oder ich warte noch :lol:
 
Darkblade08 schrieb:
Was ich erhlich gesagt nicht ganz verstehen kann. Die 1070 ist gleich schnell und dank diverser Custom Varianten in der Auswahl attraktiver. Wenn die Ausbeute bei der Produktion immer besser wird, warum nimmt man dann nicht die 1070 vom Markt und ersetzt die durch die ti?

Genau, diesen Schritt verstehe ich von Nvidia garnicht.
Es hätte genauso gut eine 1055TI geben können die dann aber viel attraktiver wäre.
Die 1070TI ist einfach nur unnötig, besonders wegen den Preisen.
 
Grundkurs schrieb:
Jupp, warte schon seit einem Jahr drauf dass die GTX 1070 als Nachfolger der GTX 970 auch endlich das gleiche kostet wie die GTX 970 als sie rauskam...solange das nicht der Fall ist bleibt die R9 270x im Rechner
Die 970 war mit einem MSRP von $329 auch bisher die günstigste x70 Karte. Die 670 und 770 haben damals $399 gekostet. Die 1070 ist mit $379 ein Zwischending, aber schon wesentlich teurer als damals die 970. Die war dann wohl tatsächlich auf Grund des beschnittenen Speicherinterfaces so günstig.

Und durch den Miningboom werden die Preise wohl noch eine ganze Weile so hoch bleiben.
 
Einfach mal abwarten, bis offizielles Informationen da sind. Nvidia wird sich schon Gedanken gemacht haben.
 
Wenn die nur 5-10% langsamer wird als ne 1080 wird die interessant.
Miner sind bloss das Problem.
Hab noch 320€ vom RMA der Nano übrig seit Mai und weiß nicht was ich kaufen soll.
Vega 56 ist ein Glückskeks, da kann alles drin sein.
AMD hätte seine Treiber lieber fertig machen sollen.
Man kann die Leistung nicht einschätzen..

und 2018 kommt eig die neue Gen. Hmmm.
 
@Tappy
AMD hätte seine Treiber lieber fertig machen sollen.
Man kann die Leistung nicht einschätzen..
Verstehe ich nicht? Die aktuellen Treiber von AMD sind ok. Wer glaubt, dass AMD mit einem Treiber Update nochmal 20% mehr Leistung bei Vega raushaut, der träumt. Die Leistung von Vega (56 u. 64) ist bekannt. Gibt genug Tests dazu. Inkl. UV und OC.
 
Krautmaster schrieb:
Als ob das was mit "Angst" zu tun hätte. Es ist einfaches Marketing mit Minimalaufwand. Die Werbung lässt man unendlich viele Magazine und Tech Seiten wie CB für lau machen.


Sehe ich auch so!
 
So ein Blödsinn.
Der Preisunterschied von aktuell 100 Euro zwischen 1070 und 1080 hat meiner Meinung nach eh schon die Existenz einer 1070 in Frage gestellt und jetzt wollen die dazwischen noch eine Karte quetschen?
Es wäre doch viel sinnvoller die 1070 auf 320 Euro zu senken und die 1080 auf 450. Die 1080 GDDR5X darf dann ab 500 Euro losgehen. Wäre doch alles top. Nein stattdessen vermischen wir jetzt alles noch weiter so das der Kunde gar keinen Überblick mehr hat. Dann kann man demnächst je nach Tageskurs und Glück für 500 Euro eine 1070 OC, 1070 Ti, 1080 oder gar eine 1080 X schießen.
 
TZUI1111 schrieb:
Ja die Latenzen sind einfach zu hoch ;)
Das heißt der hohe Takt des GDDR5x wird durch hohe Latenzen erzwungen, dies rentiert sich nicht beim Mining und das ist auch der Grund, wieso die 1080 im Vergleich preiswerter ist, als die 1070?
 
Sieht mir stark nach Reste Verwertung aus wüsste gerne ob noch Pascal Gpus vom Band laufen und wie weit weg die consumer Volta ist.
 
Zurück
Oben