News Nvidia GeForce GTX 780 Ti abgelichtet und angetestet

Interessante Ergebnisse bzw. Benchmarks.Von Design her finde ich es auch besser.Ob es ein "Must have" ist, ist eine andere Frage :)

Ich hoffe es bleibt nicht beim Referenz-Design.
 
OMG - 20% höhere Energieaufnahme als R9 290X - und das stellt man dem Kunden jetzt auch noch im Diagramm da damit die Balken überall länger sind!?!
Irgendwas läuft falsch..........
 
Es ist schon beeindruckund, wie Nvidia mit einer 18 Monate alten GPU die Konkurenz auf Distanz hält. Trotzdem werde ich AMD für die vernünftige Preispolitik belohnen und nach Erscheinen der custom designs zur R9 290X wechseln, sorry Nvidia. Aber Strafe muss sein.
 
Trotzdem werde ich AMD für die vernünftige Preispolitik belohnen und nach Erscheinen der custom designs zur R9 290X wechseln
Ist auch dringend nötig, AMD hat ja laut Steam nur noch 35% Marktanteil und NV 50% und das obwohl Kepler extrem teuer war. Wird Zeit das AMD da mal wieder ein paar Marktanteile aufholt. Weiter runter wäre echt bitter bei den soliden GPUs die sie seit HD 5000 bringen.
 
Lars_SHG schrieb:
OMG - 20% höhere Energieaufnahme als R9 290X - und das stellt man dem Kunden jetzt auch noch im Diagramm da damit die Balken überall länger sind!?!
Irgendwas läuft falsch..........

Naja, zum einen ist die Leistung dafür ja (je nach Titel) auch gestiegen (vlt. nicht proportional aber das ist ja wohl kaum das ausschlaggebende Argument für den Käufer einer High-End-Karte) und der Leistungsbedarf wird natürlich dazu als Kontrast angegeben. Wie man auf die Idee kommen kann, dass Chiphell (und nicht NVidia) mit hohen Watt-Graphen Werbung für den Kunden machen will, ist mir schleierhaft.

In der Tat finde ich den Graphen sehr gut gewählt. Die Performance und der Stromverbrauch kombiniert. Da kann jeder schnell zu einer für sich passenden Grafiklösung gelangen. Kurzer Blick auf den Graphen, welche Karte liefert für mein Setting ausreichend Leistung, welche hat dabei den wenigsten verbrauch: schwupps, es wird Karte XYZ. Oder: welche (leistungsfähige) Graka hat generell einen niedrigeren Verbrauch: schwupps, dann wirds die. Welche liefert brachiale Leistung ohne Rücksicht auf Verluste: schwupps, die. Alles in einem Graphen.
 
Zuletzt bearbeitet:
Finde eh nur die "Black Edition" interessant, wenn sie den kommt.
Aber mann muss sehr an sich halten und daran denken das nächstes Jahr schon Maxwell vor der Tür steht :D

Anbei noch 2 weitere Benchs der 780TI.

080312c12041oc2txvtccq.jpg

080312d9hq89umhy94k4ja.jpg
 
schon lustig, wie die 780ti in geringer Auflösung, wo eh es keinen Unterschied macht ob 160 oder 130 fps, der 290x davonrennt.
Aber da wo es auf Leistung drauf ankommt: 4k und 4k 2AA ist die 290x plötzlich leicht im Vorteil oder zumindest Gleichstand.
Wenn man bedenkt, dass die 4k-Monitore immer günstiger werden, ist die 290x wohl doch nicht so abgeschlagen, wie viele glauben.

und das Argument Stromverbrauch ist wohl bei Kepler vs. Hawaii noch auch hinfällig :lol::
 
Zuletzt bearbeitet:
Nvidia * Brechstangen Modus* , das Ding verbraucht scheinbar mehr als eine R9 290X, damit wäre auch das letzte Pro Argument des GK110 flöten gegangen, jetzt will ich sehen wie sich die ganzen Nvidia Anhänger rechtfertigen, die hohen Preise waren ja scheinbar legitim weil die Kepler Karten so effizient waren, wenn dann also diese Karte einen Award bekommt dann kündige ich dieser Seite.
 
Als Käufer einer GTX Titan würde ich mir echt etwas verarscht vorkommen. Das Ding ist noch nicht einmal ganz ein dreiviertel Jahr alt und kostet auch jetzt noch mind. 820€.
Dieses Geld hat man als Kunde ausgegeben um wirklich über längere Zeit das schnellste single GPU Flagschiff zu bekommen. Und nun kommt NVidia daher und schmeißt mit der 780Ti nach nicht einmal einem Jahr mit der 780Ti eine schnellere Karte für über 100€ weniger auf den Markt.

Hätte ich eine GTX Titan gekauft, wäre ich da schon etwas angepisst.
 
Wie man auf die Idee kommen kann, dass Chiphell (und nicht NVidia) mit hohen Watt-Graphen Werbung für den Kunden machen will, ist mir schleierhaft.
wo habe ich denn geschrieben das nVidia das Diagramm verbrochen hat?
Die tragen die Verantwortung für die Karte, natürlich auch für die Stromaufnahme - aber nicht für das Diagramm!

aber das ist ja wohl kaum das ausschlaggebende Argument für den Käufer einer High-End-Karte
sicher ist das auch ein Argument! Ich z. B. werde wohl keine AMD kaufen obwohl ich das eigentlich wollte, aber im Moment und zu den Preisen werde ich werde wohl eine GTX780 nehmen, bietet mir im Moment das bessere Paket auch wenn 3 GB VRAM echt wenig sind - in den letzten Jahren habe ich immer nach 3 Generationen gewechselt und es gab immer eine Speicherverdoppelung, was AMD ja auch bieten würde, aber das Paket stimmt halt derzeit nicht. Mal sehen was die 290 ohne X sagt.........

Nvidia * Brechstangen Modus* , das Ding verbraucht scheinbar mehr als eine R9 290X, damit wäre auch das letzte Pro Argument des GK110 flöten gegangen
genauso sehe ich es auch - Brechstange, sieht wohl doch nicht so rosa im Köcher von nVidia aus - wobei das bei AMD natürlich ähnlich ist.
 
Zuletzt bearbeitet:
Wenn man sich überlegt wie lange die 690gtx ihren Platz und Preis hält . Jetzt 4 mal 780Ti im 4 way sli mit modifizierten treibern :evillol:
 
Schade, dass hier manche nicht ihr Gehirn benutzen können und über den Stromverbrauch lästern. So unfassbar. Laut den "Leaks" hat auch die Titan mehr Stromverbrauch als die 290X . HAHAHAHAHHA komisch komisch in _ALLEN_ Test der Welt hat die Titan weniger verbrauch, aber der dubiose Leak wird natürlich als Wahrheit gesehen.
Selbst beim Computerbase test liegt die 290X 10% über der Titan (beim Stromverbrauch). Wie leicht sich einige Leute veräppeln lassen. Kein Wunder, wenn sie auch noch AMD Karten wie die 290X dann kaufen.
 
relativ gesehen wirds genug verrückte geben, die sich das ding kaufen... preis/leistung muss man für sich persönlich erst einmal kalkulieren können...
vermutlich wird es aber in absoluten zahlen nicht so viele von den karten geben, weil vollausbau, höhere kosten usw.
man sieht aber daran, wie verzweifelt nvidia um jeden preis versucht mitzuhalten.



ps: und jetzt kommen die ganzen verrückten mit ihrem stromverbrauch... ob 200 oder 250 watt...! wenn man nicht gerade 14h am tag mit zocken verbringt (wie vermutlich einige hier, sonst würden sie ja nicht wegen stromverbrauch heulen) macht das auf der rechnung wohl erst nach mehreren jahren den unterschied aus. es kommt einfach nur darauf ab ob die karte trotzdem kühl/leise läuft (mal schauen was bei 290x custom rauskommt)
aber da kommen wir wieder beim thema individuelles preis/leistungs-verhältnis...
 
Zuletzt bearbeitet:
Rock Lee schrieb:
schon lustig, wie die 780ti in geringer Auflösung, wo eh es keinen Unterschied macht ob 160 oder 130 fps, der 290x davonrennt. Aber da wo es auf Leistung drauf ankommt: 4k und 4k 2AA

Who the fuck cares? Wer spielt schon auf 4k? Wer spielt schon auf 4K mit einer GPU und findet low FPS toll?
 
http://www.pcgameshardware.de/Gefor...er-Kuehler-12-GiB-VRAM-unlimited-TDP-1095491/

Nette Gerüchte, nicht nur verdoppelten Vram auf 6GB sondern gleich auf 12GB will NV gehen mit einer ultra teuren Spezial Edition. Das wäre mal ein Wort, 3GB sind für die Karte viel zu wenig. 6GB müssten aber reichen, kann mir nicht vorstellen das bei Quad SLI das dann nicht reichen sollte. Da könnte mal ein TRI-SLI Titan User was dazu sagen.

Hätte ich eine GTX Titan gekauft, wäre ich da schon etwas angepisst.
Es gab wirklich Leute die dachten die die Titan sei eine neue 8800 Ultra und würde 1-2 Generationen das schnellste belieben was es gibt, sowohl bei NV als auch bei AMD. Die Unterhaltung war echt lustig zum Start der Titan, das war gar nicht so leicht diesen Leuten klar zu machen das die Titan extrem schnell altern wird. Die sind aber wirklich selber schuld, war ganz klar das die Titan die legendäre 8800er Reihe nicht beerben wird.

Aber einige Features der 8800GTX hat die Titan schon bekommen, extreme Langlebigkeit durch den üppigen Vram, verdammt gute Kühlung und extreme Effizienz unter Last.
 
Zuletzt bearbeitet:
Morrich schrieb:
Als Käufer einer GTX Titan würde ich mir echt etwas verarscht vorkommen. Das Ding ist noch nicht einmal ganz ein dreiviertel Jahr alt und kostet auch jetzt noch mind. 820€.

Es kommt wie immer im Leben auf den Zeitpunkt an. Man kann halt nicht das Produkt der Zukunft jetzt sofort haben. Und zu diesem Zeit, war die Titan halt das Maß in Sachen absoluter Leistung und demnach, da wir in einer Kommerzwelt leben, auch das Maß beim Höchstpreis.

Wer mehr die meinste Leitung will, wird immer im absoluten Vergleich am meisten bezaheln. Das ist in allen Bereichen so, nicht nur bei Hardware.
 
man sieht aber daran, wie verzweifelt nvidia um jeden preis versucht mitzuhalten.
Ja, und das ist es was ich auch nicht verstehen kann! Hätte man die Titan jetzt leicht verbessert aber immer noch mit 6 GB VRAM belassen, hätte man den hohen Preis fast stehen lassen können. Das Paket der kleineren Karte ist ja nicht schlecht nachdem sie die absurden Preise aufgegeben haben.
Und jetzt so was, wirklich schwer verständlich......
 
Zurück
Oben