News Nvidia: Titan V im Detail auseinander gebaut und erste Benchmarks

DarkerThanBlack schrieb:
Die Titan V bleibt eine beschnittene Profikarte. Sie ist weder ein Ersatz noch eine Alternative für die Quadros/Teslas auch wenn das die Gamer plötzlich anders sehen wollen.

Nochmal: für die allermeisten GPGPU/Compute-Applications - gerade im wissenschaftlichen Bereich - sind die Profitreiber egal. Speziell für Deep Learning benötigt man die Profitreiber genau gar nicht.
Die Titan V bietet knapp 7 TFLOPs FP64 und knapp 15 TFLOPs FP32 an Leistung.
Eine Tesla V100 kommt auf 7.5 TFLOPs FP64 und ganz knapp über 15 TFLOPs FP32.
Für die meisten Compute-Applications interessiert nur diese Rohleistung. Die TensorCores - gerade für Deep Learning und andere Bereiche mit z.B. viel linearer Algebra - sind ebenfalls die gleichen wie in der Tesla V100.

Wo möchtest du hier bitte den signifikanten Unterschied postulieren?

Bleibe doch bei Themengebieten in denen du über Hintergrundwissen verfügst.

Das einige Unbelehrbare die Titan V für Gaming "missbrauchen" wollen, macht deine Posts nicht weniger inkorrekt. Die Karte ist eine Profikarte, nur eben zum Einstiegspreis, da ohne Proftreiber usw...die aber eben für Compute-Applications auch uninteressant sind.
 
Zuletzt bearbeitet:
danielnedles schrieb:
Ich verlgeiche doch auch keine Salatgurke mit einem Apfel und beschwere mich drüber das die Salatgurke nicht süß ist.

Tja, manche streuen einfach Zucker auf die Gurke und schon ist sie viel besser vergleichbar ;)
Was nicht passt, wird passend gemacht. Auch Vergleiche.

ascer schrieb:
Wo möchtest du hier bitte den signifikanten Unterschied postulieren?

Bleibe doch bei Themengebieten in denen du über Hintergrundwissen verfügst.

Er will doch nur trollen. Ist das nicht offensichtlich? Wenn ihr da noch mehr drauf eingeht, geht das noch ein paar Threadseiten so weiter.
 
Zuletzt bearbeitet:
Warum wurde keine Vega FE mit in den Test aufgenommen (weche eine ähnliche Einordnung hat) sondern maximal eine Radeon™ Pro WX 7100, welche wie die RX 480 auf Ellesmere XT basiert?
 
wahrscheinlich, weil die tester keine zur verfügung hatten. hätte man aber sich auch selber denken können ;).
 
ascer schrieb:
Das einige Unbelehrbare die Titan V für Gaming "missbrauchen" wollen, macht deine Posts nicht weniger inkorrekt. Die Karte ist eine Profikarte, nur eben zum Einstiegspreis, da ohne Proftreiber usw...die aber eben für Compute-Applications auch uninteressant sind.

Widersprich dir bitte nicht selber. Das bestätigt nur meine Aussage.
Die Titan richtet sich primär an die Gamer, so wie es bis jetzt immer mit der Titan war. Nur der Preis wurde immer in die Pseudo-Profi-Ecke geschoben um ihn möglichst hochhalten zu können.
Die Titan V wird nun als Deep Learning Hardware vermarktet mit dem entsprechenden Preis dazu. Nur gekauft wird sie eben nur wiederum vornehmlich von Gamer, die sich dann diesen speziellen Anwendungsbereich als Kaufargument zurecht legen dürfen. ;)

Oder glaubt hier jemand wirklich ernsthaft daran, dass sich hier jemand die Titan V kauft um damit Deep Learning zu betreiben ? :lol:
 
DarkerThanBlack schrieb:
Widersprich dir bitte nicht selber. Das bestätigt nur meine Aussage.
Die Titan richtet sich primär an die Gamer, so wie es bis jetzt immer mit der Titan war. Nur der Preis wurde immer in die Pseudo-Profi-Ecke geschoben um ihn möglichst hochhalten zu können.
Die Titan V wird nun als Deep Learning Hardware vermarktet mit dem entsprechenden Preis dazu. Nur gekauft wird sie eben nur wiederum vornehmlich von Gamer, die sich dann diesen speziellen Anwendungsbereich als Kaufargument zurecht legen dürfen. ;)

Oder glaubt hier jemand wirklich ernsthaft daran, dass sich hier jemand die Titan V kauft um damit Deep Learning zu betreiben ? :lol:

Ganz ehrlich ? Ja. Medizinische Bilderkennung und Bioinformatik funktionieren auch sehr gut damit. Google stellt mit Tensorflow auch die passenden Werkzeuge zur Verfügung ;)
 
acc schrieb:
wahrscheinlich, weil die tester keine zur verfügung hatten. hätte man aber sich auch selber denken können ;).

Aber die anderen bis hin zur 7000€ teuren Quadro GP100 lag man eben so rum? Es geht um Karten im Gesammtwert von fast 13000 €..... + die Titan V.
Unwarscheinlich....

Selbst eine normale Vega 64 wäre schon ein Anhaltspunkt gewesen und die wurde von ihnen auch getestet aber selbst die fehlt.
 
Das eine sind gamer karten, die anderen nicht und die testreihe ist für profikarten gedacht. Nur weil trolle wie darker nicht von seinen verschwörungen ablassen wollen verstehen die meisten doch wofür die titan V gedacht ist.

Ps: die vega fe liegt dem luxx nicht vor.
 
DarkerThanBlack schrieb:
Die Titan V wird nun als Deep Learning Hardware vermarktet mit dem entsprechenden Preis dazu. Nur gekauft wird sie eben nur wiederum vornehmlich von Gamer, die sich dann diesen speziellen Anwendungsbereich als Kaufargument zurecht legen dürfen. ;)

mag durchaus sein dass die meisten TITAN V als Gamerkarte verkauft werden, na und? Nur weil dem so ist bedeutet das nicht dass es eine Gamer Karte ist.

Wenn du schon mit den alten TITAN vergleichst dann solltest du auch wissen dass diese idR um Dinge wie FP64 und Profi Funktionalität wie Tensor Flow beschnitten waren. Mich würde es nicht wundern wenn eine richtige TITAN Xv noch als Gamer Karte nachkommt mit eigenem Chip samt GDDR6 welche dann kein FP64 und kein Tensor Zeug mit an Board hat, dadurch also nicht mehr für besagte Anwendungsgebiete in Frage kommt.

Die TITAN V ist jedenfalls nicht einfach eine TITAN wie die Vorgänger - oder gabs ein GP100 als TITAN?

Mit der TITAN V dürfte es NV weniger darum gehen ne handvoll Gamer glücklich zu machen (wirtschaftlich gesehen ist der 3000€ Gamer Markt eher unbedeutend winzig). Viel eher gehts darum den wenigen Deep Learning Spezialisten & Studenten ein einfaches vergleichsweise schnelles und günstiges Arbeitsgerät in die Hand zu drücken um sich die Vorherrschaft hier frühzeitig zu sichern und diese an den eigenen SW Stack zu binden (das ist das was wichtig ist). Natürlich ist die Zahl der Gamer da draußen weit höher, die Zahl der Gamer die gern 3000€ für 30% mehr Dampf ausgeben wird nicht groß sein, aber ggf größer als die die die Karte wirklich dafür kaufen wofür sie vom Chipdesign gedacht ist. Das tut aber wenig zur Sache denn die wie keine TITAN davor eignet sich diese für den professionellen Einsatz.

Das zeigt ja der Deep Learning Bench perfekt und genau für das ist das Chipdesign ausgelegt, ganz gleich auf welcher Karte dieser nun sitzt.
 
Zuletzt bearbeitet:
Wadenbeisser schrieb:
Aber die anderen bis hin zur 7000€ teuren Quadro GP100 lag man eben so rum? Es geht um Karten im Gesammtwert von fast 13000 €..... + die Titan V.
Unwarscheinlich....

und doch realität, finde dich damit ab. vielleicht noch den aluhut absetzen, dann kommt man auch besser durchs leben ;).
 
Muss über einige Kommentare hier schmunzeln, die Studenten also, die dann noch für Zuhause mal eben in eine titanv investieren, achso okay. Ggf ist die Titanv auch einfach eine karte die alles kann, aber im jeweiligen Bereich gegen die direkte Konkurrenz abstriche machen muss. Nicht mehr aber auch nicht weniger. Die Titan war schon immer mit einer Prise Prestigekauf behaftet.
 
Oh man, Nivida bewirbt die Titan V nicht mit einem Wort mit Gaming ( um genau zu sein kommt das Wort EINMAL vor in dem Zusammenhang, nämlich Gaming KI Programmierung), aber natürlich verkaufen sie sie genau als das und machen den ganzen Buhei nur zur Tarnung, damit keiner merkt, wie teuer die Gamingkarten werden. Ist klar... :rolleyes:

Manche sollten echt ihren Tellerrand mal überprüfen. Profikarten sind nicht nur dann Profi, wenn sie zertifizierte Treiber haben. Es gibt auch solche und für diesen Markt sind diese Treiber auch wichtig! Aber es gibt genügend anderen EBreiche, die ebenso professionell sind und nichts mit Gaming zu tun haben und wo zertifizierte Treiber weder benötigt werden, noch sinnvoll sind oder überhaupt möglich. Man man man, diese beschränkten Horizonte immer.
 
@zwergimpc

Ähm ja? Es kommt immer drauf an was für private Projekte man veranstaltet. Es können ja auch Uni PCs damit bestückt werden zb für AI Veranstaltungen die so im Kommen sind wie kaum was. Das gibt ein neues wichtiges IT Feld.

Wenn man die richtigen Anwendungen für hat, dann zahlt sich das schnell aus. Vielleicht weniger im Studium direkt. Ich mein... Für das Geld bekommt man nicht mal 3 iPhones. Und damit rennen genug Studis rum. Wer semiprofesionell ambitioniert im Segment AI ist und zb mit Bikderkennung experimentiert.. Wie is soll der sich keine Titan V leisten?

Wie viele kaufen sich ne DSLR für 3000€, ohne Linsen... Ohne gleich Profi Fotograf zu sein.

Bei der Titan dasselbe. Je nach Anwendung hat man 30% mehr gaming Leistung oder eben Faktor >50 schnellere Deep Learning Training Zeiten als jede andere Karte am Markt.

2017-12-21 17_34_35-Die NVIDIA Titan V im Workstation- und Compute-Einsatz - Hardwareluxx.png
 
Zuletzt bearbeitet:
acc schrieb:
und doch realität, finde dich damit ab. vielleicht noch den aluhut absetzen, dann kommt man auch besser durchs leben ;).

Jetzt hat man schon einen Alu Hut auf wenn man ein einseitig ausgerichtetes Testfeld ankreidet und die einzigen Konkurrenten die ins gleiche Horn stoßen komplett fehlen? So so!

Für diejenigen die sich jetzt daran hoch ziehen das nvidia sie nicht direkt mit dem Gaming umwirbt, warum heißt sie dann wohl nicht Quadro, Tesla oder macht einen ganz neuen Namen für eine Zwischenlösung auf sonderm man wählt ausgerechnet den Namen aus der Daddel Fraktion? Man will preislich in das Feld vorstoßen, sich aber den damit zusammenhängenden, grundlegenen Support sparen.
 
Weil Quadros und Tesla Markennamen für ihr jeweiliges Marktsegment sind und die Titan V genau für diese eben nicht gemacht ist. Wie oft eigentlich noch...

Bei den Teslas sieht man es schon am Formfaktor. Die Titan V ist für ein neues Segment, was so bisher nicht existent war bzw. so nicht bedient wurde. Meine Güte, wie schwer ist es zu begreifen, dass der Profimarkt nicht ein Markt ist sondern diverse, teil recht unterschiedliche Profile aufweist? Und die Titan war nie eine reine Daddelmarke! Wurde immer als Prosumer vermarktet, mal mit mehr, mal mit weniger Fokus auf den Profianteil.

Und zum Testfeld vom Luxx: Du kannst denen ja gern ne FE bezahlen, die kaufen ihre Karten nämlich selbst. Davon ab ist die FE die Konkurrenz zu den Quadros, nicht zur Titan V. AMD hat keine so explizit auf diesen Markt ausgerichteten Chip und der Test wäre an sich wenig aussagekräftig, zumal man davon ausgehen darf, das die FE genau aus diesem Grund weit abgeschlagen wäre.

Zudem: Sie haben die WX7100 im Test. Die FE und diese Karte wurden vielfach verglichen. Man hat also einen deutlichen Ansatzpunkt, wo sich die FE platzieren würde. Wenn man allerdings absolut null Transferleistung gedanklich erbringen möchte, dann beschwert man sich, dass die FE da nicht dabei steht...
 
Zuletzt bearbeitet von einem Moderator:
Mustis schrieb:
AMD hat keine so explizit auf diesen Markt ausgerichteten Chip

Die Instinct Machine Intelligence Reihe von AMD ist doch genau dieser Fokus. Da hat AMD sogar den Namen drauf abgerichtet. Lustigerweise - afaik - hat AMD aber kein Äquivalent zu den Tensor Cores von NVIDIA's Volta (bis jetzt) für Machine Learning.


Krautmaster schrieb:
Es kommt immer drauf an was für private Projekte man veranstaltet. Es können ja auch Uni PCs damit bestückt werden zb für AI Veranstaltungen die so im Kommen sind wie kaum was. Das gibt ein neues wichtiges IT Feld.

Das ist kein neues Feld. Das gibt es auch schon seit Jahrzehnten an *jeder* größeren Uni.
Die Foundations für AI wurden in den 50ern/60ern gelegt und viele der grundlegenden Techniken (Lernalgorithmen wie Backpropagation, künstliche neuronale Netze generell) wurden schon sehr ausgiebig in den 70ern/80ern erforscht.
Warum man erst jetzt davon in derart großem Maße hört liegt an zwei Punkten:
(1) musste erstmal die Grundlagenforschung fundierte Ergebnisse liefern und die Masse der Bevölkerung rennt heute ja 99% des Tages Musikern, Filmstars usw. hinterher und nicht den "Einsteins" unserer Tage, d.h. die Masse der Bevölkerung bekommt nur wenig von "Grundlagenforschungsnews" mit - selbst wenn es größere Entdeckungen sind und
(2) reichten schlicht selbst in den 90ern die Rechenkapazitäten von Supercomputern noch nicht aus, um interessante, großangelegte Experimente laufen zu lassen.
Das wir, z.B. per GPUs, massiv parallele Rechenleistung im TFLOP-Bereich zur Verfügung haben (und zumindest im niedrigen GFLOP-Bereich sprechen wir schon bei einfachen Modellen von Monaten für größere Simulationen) ist ja technisch erst seit ~10 Jahren möglich.

Ohne ausreichende Grundlagenforschung & ohne ausreichend schnelle Hardware kommen neue Entdeckungen natürlich nicht im "Massenmarkt" an. Oder überhaupt großangelegt in der Praxis.

Warum AI quasi "die" Technologie im 21. Jahrhundert ist, die jede Branche verändert, der Motor in der Robotik ist (das wären ohne AI nur weiterhin die typischen, monotonen Fertigungsarme am Fließband in der Fabrik) usw. usf. liegt ja ausschließlich an "Deep Learning", wohinter sich nichts weiter als große, tiefe Netzwerke mit sehr fortgeschrittenen Architekturen, Trainingsalgorithmen usw. stecken.
Das in der Praxis aber sinnvoll einzusetzen kostete natürlich ein paar Jahre Entwicklung und eben entsprechende Rechenressourcen.





Krautmaster schrieb:
Wenn man die richtigen Anwendungen für hat, dann zahlt sich das schnell aus. Vielleicht weniger im Studium direkt. Ich mein... Für das Geld bekommt man nicht mal 3 iPhones. Und damit rennen genug Studis rum. Wer semiprofesionell ambitioniert im Segment AI ist und zb mit Bikderkennung experimentiert.. Wie is soll der sich keine Titan V leisten?

Meine persönliche Stichprobe ist selbstverständlich zu klein, um adäquate Schlüsse ziehen zu können, aber zumindest spekulativ würde ich aus eigener Erfahrung behaupten, dass die meisten Studenten Bafög und/oder Studienkredit und/oder Jobs zur Finanzierung des Studiums benötigen.
Die einzigen (in Masse), die mir spontan einfallen würden, die derartige Summen in eine Grafikkarte investieren können, sind diejenigen, deren Umfeld - vor allem Eltern/Familie usw. - sie finanziell unterstützt. Aber selbst die sind vom Verhältnis her - zumindest nach meinen bisherigen Beobachtungen - eine Minderheit an der Uni.

Es ist auch nicht gerade so, als würde man "einfach" in das Gebiet einsteigen können. Bei uns z.B. gibt es quantitativ gesehen problemlos mehr als 10x so viele "typische Softwarearchitektur"-Abschlussarbeiten als welche im Bereich AI und auch Seitenzahl, wissenschaftlicher Anspruch usw. ist - zumindest im Durchschnitt - schon ziemlich hoch in dem Feld. Zusammen mit theoretischer Informatik, Algorithmik und ein paar anderen Disziplinen würde ich AI imho schon zu den anspruchsvollsten Themen überhaupt innerhalb der Informatik zählen.

Nichtsdestoweniger hast du aber natürlich Recht, dass man irgendwie solche Sachen immer "geregelt" bekommt. Für die Uni hab ich z.B. per wissenschaftlichem Proposal an das NVIDIA Academic Program eine TITAN X von NVIDIA bekommen.

Privat zu Hause habe ich eine 1080, die ich von einem Startup gesponsert bekam, bei dem ich für ein paar Monate an AI-Projekten gearbeitet habe.

Selbst leisten könnte ich mir nichts davon - nicht im Ansatz. Aber wenn man ausreichend Zeit reinsteckt und nicht gerade auf den Kopf gefallen ist, dann findet man schon Mittel und Wege, um an Equipment zu kommen.

Unabhängig davon haben mindestens die größeren Unis natürlich auch eigene Compute-Cluster. Der größte bei uns hat da beispielsweise auch über 200 Nodes mit Tesla-Karten und da bekommen auch Studenten Zugang, sofern man z.B. in Abschlussarbeiten ordentlichen, wissenschaftlichen Content produziert hat.
 
Zuletzt bearbeitet:
@ Mustis
Quadro und Tesla sind die Namen für die Karten des professionellen Marktsegments für die sich auch diese Titan halten will, wobei sich die Quadros auf den grafiklastigen Teil konzentrieren und die Tesla Modelle durch die fehlenden Bildschirmanschlüsse eher für den HPC Markt gedacht sind. Die Titan steht eher für die preislich überzogene Daddelkarte deren Preis mit Fähigkeiten zu Anforderungen des pofessionellen Marktes begründet wurde......ohne den Supportleistungen der professinellen Modelle.
Da die Titan jetzt nur noch für den professionellen Marktteil da sein soll bleibt die Frage warum die nicht gleich entsprechend benannt wurde. Was offenbar ebenfalls bleibt sind die fehlenden, professionellen Supportleistungen. Daher wohl auch mögliche Preisvorteile die sie ach so viel billiger erscheinen lassen aber wie soll sie dann für diesen Markt ernsthaft gedacht sein?
So wie ich das sehe wird das nur als Ausrede für die erneute, massive Steigerung des Verkaufspreises genutzt denn die Preise der normalen Daddelkarten hat man ja bereits in die Preisklasse der ursprünglichen Titan hoch gezogen.

So wie ich das sehe nat die Titan Serie vor allem eine Aufgabe, das Erklimmen neuer Preisregionen in die die normalen Modelle Stück für Stück nachrutschen sollen. Mit anderen Worten das Ding ist nicht für Marktanteile da sondern dafür um zu zeigen wieviel billiger doch die nächst kleineren Modelle trotz steigender Verkaufspreise sind.
 
Nein, das interpretierst du für dich. Ich kann nicht mehr tun als dich auf deine Fehlinterpretation hinzuweisen. Dann behalte deinen Aluhut eben auf.
 
Wadenbeisser schrieb:
Jetzt hat man schon einen Alu Hut auf wenn man ein einseitig ausgerichtetes Testfeld ankreidet und die einzigen Konkurrenten die ins gleiche Horn stoßen komplett fehlen? So so!

du hast den aluhut auf, weil du mal wieder eine verschwörung gegen amd witterst, wo keine ist. die haben offensichtlich keine entsprechenden karten, egal wie teuer oder billig die sind.
 
Zurück
Oben