News Nvidia: Titan V mit Volta und knapp 15 TFLOPS für 3.100 Euro

Karre schrieb:
War der Vorteil der Vega nicht die FP8 Leistung?

Und sollten de tensor cores von Nvidia nicht dieses Manko begleichen?

Ai benötigt doch nur fp8 (abschätzen des Ergebnisses anstelle exaktes berechnen)

Neee, ist FP16 (halbe Präzision).
Das kann der GP100 ebenfalls, allerdings steckt der nur auf den professionellen Modellen.
Die Tensor Cores müssten für die INT8 Unterstützung vom Volta zuständig sein.
 
@tmkoeln

Der Preissprung kommt vor allem durch den HBM. Bandbreite hat nun mal ihren Preis.
 
@Mr.Seymour Buds
Dafür dürfte wohl eher der übergroße Chip verantwortlich sein der vermutlich eine ziemlich lausige Ausbeute hat.
 
tek9 schrieb:
Am Montag kommen meine Titanen per Post. Ich bin schon gaanz hibbelig :D

Verständlich.
Aber wie lassen sich die beiden nun per SLI verbinden, dachte die Schnittstelle gibt's da nicht.
Auf jeden Fall bin ich auf deine Ergebnisse gespannt. :)
 
@Wadenbeisser

Und der Chip freilich. 21 Mrd. Transistoren wollen auch erstmal funktionieren.

Frage mich gerade wirklich, ob bei diesem Chip der Kühler ausreichend dimensioniert ist...

Der Dual-Slot-Kühler der Titan V orientiert sich an den aktuellen Pascal-Kühlern. Aller Wahrscheinlichkeit nach handelt es sich um das gleiche Design, wobei die Farbgebung eher golden ist. Es gibt einen Acht-Pin- und einen Sechs-Pin-Stromanschluss, die für die TDP von 250 Watt ausreichend sind.

Der "aktuelle" Pascal Kühler dürfte bei dieser Karte regelrecht rot glühen.
 
Zuletzt bearbeitet:
So sehen also die Preise aus wenn Nvidia weiter die Monopolstellung inne hat. Da wird ja dann die 1180 für 800€ und die 1180ti für 1200€
n schnäppchen werden für paar % Mehrleistung nächstes Jahr

Da wird einer bald paar neue Lederjacken kaufen können

HaHa
 
Preisleistungssieger wird TITAN V wohl sicher nicht. 15 TFLOPS für 3.100 Dollar gegen 10,6 TFLOPS bei einer 1080ti für ~700 Dollar sehen dann doch nicht so gut aus. Wobei sich im Bereich Forschung (="wenn man die Tensor Cores nutzt") sich das Pendel noch deutlich in Richtung Titan V verschieben wird. Wenn ich dann noch den Energievorteil durch die spezialisierten Kerne hereinnehme, dann rechnet sich TITAN V nach 2-2,5 Jahren vielleicht sogar (im Vergleich zu 2x1080ti, die würden pro Tag ca. 10-12 kwh verbrauchen).
 
Zuletzt bearbeitet:
Schade, dass Nvidia nicht die specs der Karten deutlich früher an EKWB usw weitergibt und ein NDA aufsetzt. Dann wüssten wir wohl jetzt auch schon, ob und wann ein Waterblock dafür kommt. Ohne steck ich mir sowas nicht in den Rechner :/


EDIT: Ich hab jetzt einfach mal EKWB angeschrieben und gefragt. Mal sehen, was die sagen.
 
Zuletzt bearbeitet:
Ein weiterer interessanter Beitrag zum Thema Forschung und Entwicklung:

Die Titan V hat 5120 Shader und hat 1200MHz Basis- und 1455 MHz Boosttakt. Das heißt, sie macht zwischen 12 und 15 TFLOPS bei 32 Bit-Gleitkommazahlen.
Die Vega 64 hat 4096 Shader bei 1247/1406 MHz Basis- und 1548/1677 MHz Boosttakt. Das heißt, sie macht zwischen 10 und 14 TFLOPS bei 32 Bit-Gleitkommazahlen, zudem zwischen 20 und 28 TFLOPS bei 16 Bit-Gleitkommazahlen.

Das sind die relevanten Daten für Spiele und die üblichen Anwendungen, die man auf dem PC hat. Besonders an der Titan V ist nur, dass die Rechencluster offensichtlich auch 8 Bit-Zahlen berechnen können, die dementsprechend mit 100 bis 120 TFLOPS berechnet werden müssten. Nur zur Verbildlichung: Das sind z.B. Zahlen von 0 bis 255. Damit lässt sich kaum was anfangen, außer vielleicht in der Textverschlüsselung oder eben bei bestimmten Deep Learning-Anwendungen.

Insofern ist die Titan V keine übermäßig schnelle Karte insgesamt - sie wäre nur für einen Zweck missbraucht, bei dem sie kaum Vorteile bietet. Klar ist sie minimal schneller als eine Titan Xp, aber dafür muss man über 800mm² Die-Fläche bezahlen, von der ca. 25% komplett ungenutzt bleiben, weil sie nur den TPUs geschluldet sind.
Und warum sie sich für professionelle Anwendungen gar nicht eignet: Es muss ja nur mal ein Bit kippen, dann kommt sagen wir mal, 127 statt 255 heraus. Eigentlich braucht man dann gar nicht erst so eine schnelle Karte kaufen, weil man die Rechnung dann mehrmals wiederholen muss, um herauszufinden, dass die Zahl Müll war. Mit 16 Bit-Fließkommazahlen müsste man übrigens, wenn ich mich nicht täusche, Zahlen von -2048 bis 2048 verlustfrei darstellen können. Das heißt, mehr als drei mal sollte man mit einer Titan V nicht rechnen, um kaputte Zahlen zu erkennen, sonst könnte man auch direkt eine Vega Frontier Edition nehmen.
Besonders interessant ist, dass man auch gleich mehrere solcher Karten statt der Titan V nehmen könnte, und dann sogar ECC hätte.

Am Ende fragt sich dann also, zu was die Titan V überhaupt nützlich sein soll - eigentlich bleibt nur die Zielgruppe der Zocker übrig, die wirklich für 3.000€ 5-10% mehr Leistung wollen, als andere sich leisten können

Dem kann ich nur zustimmen. Für mich ist und bleibt das eine Gamerkarte wie bereits jede Titan. Und in Konsumercomputern wird diese auch sehr oft anzutreffen sein. In Unternehmen schon gar nicht und auch nicht an Hochschulen oder Universitäten.
 
Duke711 schrieb:
Dem kann ich nur zustimmen. Für mich ist und bleibt das eine Gamerkarte wie bereits jede Titan. Und in Konsumercomputern wird diese auch sehr oft anzutreffen sein. In Unternehmen schon gar nicht und auch nicht an Hochschulen oder Universitäten.

Du weißt aber schon, dass für bestimmt Vorgänge FP16 und FP64 sehr wohl gebraucht wird ? Gerade FP64:FP32 = 1:2 ist sehr interessant.
Soweit ich weiß, bezieht sich die Angabe "110 TFLOPS" auf mixed FP16/32 bei Matrixoperationen.
 
Recharging schrieb:
Verständlich.
Aber wie lassen sich die beiden nun per SLI verbinden, dachte die Schnittstelle gibt's da nicht.
Auf jeden Fall bin ich auf deine Ergebnisse gespannt. :)

Ich kaufe zwei Titanen weil ich es kann ;)

Ich habe zwei Rechner. Die zweite Karte ist für meinen Zweitwohnsitz damit ich auch auf Dienstreisen angemessenen in 4K spielen kann.
 
Duke711 schrieb:
Ein weiterer interessanter Beitrag zum Thema Forschung und Entwicklung:

Das ist lediglich ein Beitrag eines User im HardwareLuxx Forum, mit Forschung und Entwicklung hat es nun mal gar nichts zu tun.
 
Trochaion schrieb:
Du weißt aber schon, dass für bestimmt Vorgänge FP16 und FP64 sehr wohl gebraucht wird ? Gerade FP64:FP32 = 1:2 ist sehr interessant.
Soweit ich weiß, bezieht sich die Angabe "110 TFLOPS" auf mixed FP16/32 bei Matrixoperationen.

Die 110 TFLOPS beziehen sich auf INT8.

Was ich in dem Zusammenhang aber wied er witzig finde ist die Wertung von FP64. :lol:
Radeon stärker als die Geforce => FP64 ist ja ach so irrelevant
Wegfall der erweiterten FP64 Performance im laufe der Titan Generationen (bei steigendem Verkaufspreis) => brauch doch eh keiner
Rückkehr der hohen FP64 Performance bei der Titan V => auf einmal wieder wichtig und erneut eine Rechtfertigung für den Preis
 
Natuerlich spekuliert N idia auch daruaf Spieler anzusprechen. Wie viele Deep Learning Forscher mag es wohk geben? 10000? Wie viele kaufen sich so ne Karte davon? 1000?

Wie viele Gamer gibt es? 100 000 000? Wie viele koennen sich das locker leisten? Die top 1? 1 000 000
. Und selbst wenn davon es nur jeder 100 auch kauft sinds noch 10 mal mehr als die professionellen Anwender...
 
Zuletzt bearbeitet:
Wadenbeisser schrieb:
Die 110 TFLOPS beziehen sich auf INT8.

Was ich in dem Zusammenhang aber wied er witzig finde ist die Wertung von FP64. :lol:
Radeon stärker als die Geforce => FP64 ist ja ach so irrelevant

Hab ich so nie verstanden. Ich brauch FP64 durchaus und da kam mir das gerade recht.
Hmm, INT8. Danke, das hab ich offenbar falsch mitbekommen. Immer noch recht interessant für mich, da ich öfter mit Machine learning zu tun habe, sowohl mit FP16 als auch mit INT8 verwendenden workloads. Dazu spiele ich auch noch öfters, da ist die Karte eben perfekt.
 
@ Trochaion
Für denjenigen der damit was anfangen kann ist die Karte sicherlich eine interessante Alternative.

Was ich allerdings vor allem beim Thema Titan so lächerlich fand war war das Abnicken der Streichung jeglicher Vorteile mit denen der Preis der ersten Titan gerechtfertigt wurde, natürlich trotz weiter steigenden Preises. Als erstes musste die verbesserte FP64 Performance dran glauben und als nächstes war der doppelte Speicherausbau dran. Noch keinem aufgefallen das wir jetzt seit 3 Generationen auf 12 GB festhängen? Am Ende blieb 1 GB mehr Grafikspeicher und eine Hand voll Recheneinheiten mehr für den doppelten Preis der Ti und dank des Eigenvertriebs erübrigte sich auch jeglicher Preiskampf.

Die Titan V ist seit Generationen die erste die den Namen wieder würdig ist, allerdings zum dreifachen Preis der ersten und weiterhin ohne Speicher Vorteil. Man merkt einfach das man sich jegliche Weiterentwicklung fürstlich bezahlen läßt.
 
Wadenbeisser schrieb:
@ Trochaion

Die Titan V ist seit Generationen die erste die den Namen wieder würdig ist, allerdings zum dreifachen Preis der ersten und weiterhin ohne Speicher Vorteil. Man merkt einfach das man sich jegliche Weiterentwicklung fürstlich bezahlen läßt.

Korrekt, leider. Den Speicher beäuge ich auch ein wenig argwöhnisch. Natürlich, hätte NVidia den Speicher bei 4096bit und 16GB belassen, hätte praktisch JEDER die Titan V anstatt der Tesla V100 gekauft, außer denjenigen, die wirklich unbedingt NVLink brauchen. Trotzdem, 12GB ist arg wenig. 16 hätte ich erwartet, 24 gewünscht. Nvidia lässt sich die Leistung wirklich bezahlen. Ich arbeite mit Finanzanalyse im Kontext Machine Learning, und 3000€ sind akzeptabel, aber trotzdem, früher war es in dem Fall wirklich besser.
Was Spiele angeht, sind meine beiden 1080Ti immer noch ziemlich das Nonplusultra (Die Titan Xp lass ich da bewusst mal raus). Aber FP16/64 ist ne Katastrophe. Ich kann es bei Consumerkarten verstehen, aber dass man dann für 3000€ nicht mal 16GB sieht :freak:
 
Zuletzt bearbeitet:
Wadenbeisser schrieb:
Die 110 TFLOPS beziehen sich auf INT8.

Ist klar, deshalb heißte es ja auch floating point operations per second. :rolleyes:

Each Tensor Core provides a 4x4x4 matrix processing array which performs the operation D = A * B + C, where A, B, C and D are 4×4 matrices as Figure 1 shows. The matrix multiply inputs A and B are FP16 matrices, while the accumulation matrices C and D may be FP16 or FP32 matrices.

https://devblogs.nvidia.com/parallelforall/programming-tensor-cores-cuda-9/
 
Zurück
Oben