Test Nvidia GeForce GTX Titan X im Test

Schöner Test, wie immer bei PC-Hardware! :)

Zum Thema Leistungsaufnahme, da das immer wieder angesprochen wird:

Ich denke das war bei der Entwicklung eher zweitrangig. Nvidia zeigt mit den Titans, was technisch möglich ist, klar, ist ja auch das Flaggschiff.
Und ganz ehrlich: Wer so viel Geld für so viel Leistung ausgibt, soll sich ja nicht über den Verbrauch beklagen. Das Ding ist auf Leistung getrimmt, und die bekommt man auch. Wer wenig Verbrauch will greift auf schwächere/effizientere Karten zurück, die auch darauf ausgelegt sind.
 
Na ja was auffällt ist das bei Computerbase mit FXAA getestet wurde während es bei Hothwardware 4xAA war. Hat die Titan X damit vielleicht ein Problem wegen dem kleinen Speicherinterface?

Ich Haderer immer mit der Ehrlichkeit der Redakteure ob die wirklich das fordernste Szenario wählen oder das beste für einen Hersteller.

@KayD

Die Refernz der 290x ist schrott und gibt's deshalb auch nicht mehr zu kaufen. Jede 0815 Custom Karte von Nonameherstellern verübt Ihren Job 100 mal besser. (Throtteling)
 
Zuletzt bearbeitet:
Das denke ich eher weniger, da das 384bit Interface auch noch durch den Maxwell-Algorithmus profitiert.
 
kayD schrieb:
Und warum ist Referenz vs Referenz nicht gut genug? Ist doch 100x aussagekräftiger als Referenz vs. Werks OC Boardpartner mit anderer Kühllösung etc.
Weil es bekannt ist das die Referenzdesigns von AMD nicht zu gebrauchen sind (einzig CB nimmt diese gerne in ihrem Vergleich auf) und vor allem bekommt man die kaum noch zu kaufen.

Daher warten wir mal andere Testergebnisse ab. Die Titan ist jedenfalls keine schlechte Karte aber aus P/L Sicht wirklich keine Empfehlung wert.
 
@ampre Und was wenn die Referenz der Titan X auch Schrott ist?

Darauf muss man eben nichts geben.

Wenn ich z.b. eine Boardpartner Titan X mit 30% mehr Boosttakt und leistungsfähigerer Kühleinheit zum nahezu selben Preis erwerben kann, überleg ich keine Sekunde.

Speziell da das serienmäßige Paket etwas unfertig scheint, kann eine potente Boardpartner-Karte eine völlig neue Dimension der Titan X eröffnen.

Ich kann aber nicht sagen dass nur weil AMD die Referenzkarten noch schlimmer versaut, ich eine optimale Boardpartner-Karte gegen eine Referenzkarte antreten lasse.

Ist sowieso das ewige Spiel......."hihihi eine derb overclockte & gemoddete 290X kann an eine Referenz- Titan X in einem speziellen Fall anknüpfen, also ist die Titan X scheiße und die 290X super duper gut...... " Und jetzt overclocke und modde die Titan X genauso, und der Unterschied ist wieder wie vorher oder noch größer.
 
Zuletzt bearbeitet:
Lars_SHG schrieb:
Nein, steht im Test warum das so ist!

Für Dich hier noch mal relevante Faktoren zusammengefasst:
- unterschiedliche Kühlung / Gehäuse und somit Limits
- unterschiedliche Lastszenarien
- unterschiedliche Chips auf den Karten mit unterschiedlich starkem Boost (wie ja schon seit Jahren bei nVidia - Stichwort ASIC und Boost 2.0)

Alle großen Hersteller nennen als Boost die 1.075 MHz. EVGA, Gigabyte, MSI.
 
kayD schrieb:
@ampre Und was wenn die Referenz der Titan X auch Schrott ist?

Der Kühler ist ja auch schon mal Schrott. Da fehlt definitiv etwas Luft, um auch in engeren Gehäusen den Boost zu garantieren. Anders ist es ja bei der 290x-Referenz auch nicht. Beide sind laut und unterdimensioniert.
Also hinkt der Vergleich für mich auch nicht.
Die meisten Käufer werden nachträglich wohl noch etwas Geld für eine andere Kühlung in die Hand nehmen.
Umbauten muss man bei der Titan ja seit jeher selbst erledigen. Richtige vormontierte Customs gibt es ja nicht.
 
@kayD
wirklich ich glaube das die Titan X gar nicht so schlecht ist und der Lüfter auch hier Schrott ist. Ich halte sowieso Custom gegen Custom am besten.

Und wie gesagt was mich am meisten stört ist in letzter Zeit die große Diskrepanz bei unterschiedlichen Tests. Bei Magazin A hat das gleiche Spiel bei gleicher Auflösung eine andere Framerate als bei Magazin B. Warum das so ist stellt sich nie einer die Frage.
 
The Rx 300 series is expected to be the first to feature TSMC’s 20nmmanufacturing technology a full shrink from the current 28nm technology. And also be the first to be equipped with HBM. TSMC’s 20nm technology allows AMD to drastically reduce power consumption and heat as as well as drive clock speeds up. HBM also adds a healthy doze of power efficiency to the equation by reducing active power of the memory system to nearly half that of GDDR5.

Die AMD wird in 20nm und den HBM RAM haben :D Mehr Leisten und weniger Verbrauchen, wer kauft dann eine Titan X? :P

mfg
 
@ampre

Weil man eben genau mit diesen "Tricks" den ein oder anderen Hersteller ins rechte Licht rücken kann. Wenn von Referenz bis bester Custom-Version einer Grafikkarte eine Spanne von 30-40% herrscht, kann man damit natürlich gut hausieren gehen. Da muss sich jeder selber die Glaubwürdigkeit rausfiltern - das macht jedes Magazin auf irgend eine Art und Weise.
 
@C4rp3di3m
Die Leute denen es egal ist?
Es gibt Leute die warten, es gibt Leute die zocken. Und sei Dir sicher... die Leute die sich eine TitanX zulegen, denen tut es kein bisschen weh in 6-12 Monaten eine neue Grafikkarte zu kaufen die mehr Bums hat. Dieses ewige rumgereite auf der Kohle ist echt traurig.

Es gibt zwei Arten von Usern.
Die die Spaß haben an ihren Games und die die Warten auf ne Grafikkarte.
Ich gehöre zu ersteren^^
 
Der einzige Große Vorteil der Titan sind die 12GB Vram
Ansonsten würde man sich wohl eher zwei GTX980 verbauen

Ich bin jedenfalls auf andere Testergebnisse gespannt. Und vor allem freue ich mich auf die neuen AMD Modelle und dann sollte auch die Titan im Preis leicht fallen
 
Auf gut Deutsch heißt das aber auch, die Katze ist aus dem Sack und wir müssen jetzt, zumindest bei nVidia min. 1 Jahr warten bis was neues - besseres kommt oder?
Bin mal gespannt was AMD zaubert, aber danach gibt's dann wirklich erstmal nix mehr.

Ich bin nach wie vor mit meiner GTX 670 OC sehr zufrieden ;)
 
Ich höre die "Titan X Black (höherer Takt oder bessere Rev. mit mehr Taktpotential)" trapsen, wenn AMD die 390er released. Vielleicht gibt dann nVidia auch doch noch Custom-Lösungen frei.
Auf dem 2. Platz sitzen sie recht ungern. Vor allem, wenn so einfache Maßnahmen dazu führen könnten, dass sie wieder auf Platz 1 landen.

Mal sehen, was dann da abgeht. :)
 
tic-tac-toe-x-o schrieb:
Wenn es für dich so schlimm ist, dann schau dir andere Tests an. Es gibt dutzende davon. Jeder testet es ein kleinwenig anders.

es ist doch nicht schlimm lol ^^ ich sage nur dass es nicht gerade neutral ist, aber was ist das schon ;)

Max stiftet wohl öfters Verwirrung anstatt es dem Leser was bringen würde.
Ergänzung ()

tic-tac-toe-x-o schrieb:
Max bedeutet da einfach: Ohne Limite (und damit gemeint ist was ohne BIOS Mod möglich ist)
Nichts anderes.

genau das bedeutet es eben nicht =) da sieht man mal ... das Statement untermauert die Verwirrungs-Aussage von mir ja nur weiter :D

OC beschreibt das was ohne Bios Mod möglich ist. "Max" hat rein gar nichts damit zu tun.

Zur Erklärung. Stell dir vor du hast 3 Regler im OC-Tool. Power Target, GPU Takt, Ram Takt. Max schiebt einfach blind den Power Target Regler nach rechts, schaut was passiert - während OC einfach noch die anderen 2 Regler mit benutzt :D

Das wäre für sich jetzt nicht tragisch, ist es anyway nicht. Aber ist schon etwas komisch wenn beim ersten Regler der Max wiederspiegelt quasi nur der Verbrauch steigt, nicht aber die Performance. Deswegen stell ich die Sinnhaftigkeit in frage. Seh es als Verbesserungsvorschlag für CBs GPU Tests.
Vor allem da selbst die Redakteure da wohl eher schwammig unterwegs sein mit Aussagen wie "Die Differenz zur maximierten GeForce GTX 980 beträgt hingegen noch 26 Prozent." Das klingt nach einer Referenz GTX 980, die eben an den rand getaktet wurde. Falsch. >.<
Ergänzung ()

Whoozy schrieb:
Spaßvogel, da gibt es Leute die hier im Forum genau das Gegenteil behaupten und Computerbase einfach mal Nvidiabase nennen, entscheidet euch mal, es wirkt nämlich lächerlich.

genau deswegen hab ich das so geschrieben. Etwas sarkastisch, ich bin diese NV vs AMD Diskussionen und das angeblich gekaufte CB auch leid ;)
Man sollte ein Produkt schon unabh. von der Farbe beurteilen können.
 
Zuletzt bearbeitet:
Die GTX970 und GTX980 müssten den Titan-Kühler haben und die Titan einen besseren... mit Kupfer z.b.
Sie verhunzen das Referenzdesign wohl gerne, damit die Partner dann "30% quieter" und "20% cooler" draufschreiben können.
Würde schon mehr Geld für ein vernünftigtes Radial-Lüfter-Kühlkonzept hinblättern, soviel wie halt Partnerkarten mit Axial-Design kosten... Schade dass HIS keine Nvidia-Grakas vermarktet mit ihrem Kühler.

HisN schrieb:
Es gibt zwei Arten von Usern.
Die die Spaß haben an ihren Games und die die Warten auf ne Grafikkarte.
Omg, als würden nur neueste Games mit MAX* Grafik und xxx FPS Spaß machen.

*Mit MAX Grafik ist auch die 4K Auflösung, dafür weniger Details, gemeint.
 
Zuletzt bearbeitet:
Sie machen mit mehr FPS mehr Spaß? Und ich bin der letzte der auf dem Ultra-Trip ist (4K Moni^^).

Ich kann blos dieses ewige "aber in XXX Monaten kommt Graka XXX, die ist 100x besser" nicht mehr hören.
Das wissen wir alle.
 
@Theobald93

das obliegt doch jedem selbst.

Ich hab min 5 Linsen a 1000-3000€ in der Vitrine stehen die ich deutlich seltener brauche als eine Grafikkarte zum Gamen, dabei zock ich vielleicht mal 1-2 h die Woche. Und trotzdem hab ich sie. :)

Andere geben 50.000 100.000€ für nen Auto aus in dem sie täglich weniger als 60 Minuten verbringen, was viele abends wohl im Schnitt am PC daddeln. Und das hat nen ähnlichen Wertverlust. Es gibt deutlich teurere Hobbies die seltener ausgelebt werden. HiFi zB.

Dass ich mit 50€ Taschengeld im Monat in der 6. Klasse nicht gerade zu einer TITAN X greife...
 
DerBaya schrieb:
Auf gut Deutsch heißt das aber auch, die Katze ist aus dem Sack und wir müssen jetzt, zumindest bei nVidia min. 1 Jahr warten bis was neues - besseres kommt oder?

Das habe ich anders verstanden. Zum einen kommt noch die 980TI und zum anderen dann Pascal. Bei Pascal könnte ich mir gut vorstellen, dass der Release noch nach vorne korrigiert wird auf Grund des Drucks von AMD mit der 390X.
 
Zurück
Oben