News Nvidia: Titan V mit Volta und knapp 15 TFLOPS für 3.100 Euro

Test der Titan V ist aufm luxx jetzt online und wie zu erwarten ist die Titan eben nit so der Bringer in Games wie man aufgrund des Chips ggf. annehmen könnte. Ist eben keine Gaming Karte.
 
na ja wenn man ne titan Xp nimmt und die mit dem ref geblaese einfach so reinsteckt und bencht kommt da auch nur heisse luft bei rum. Da muss man schon die v mit der 1080 ti ref vergleichen.

Power target muss auf 120 und das geblaese ordentlich aufgedreht werden (bis ek und co die blocks releasen), sonst geht da viel performance floeten. Ansonsten sind die Ergebnisse gut bis enttaeuschend je nach spiel rein auf die spieleperformance reduziert betrachtet. Scheint wirklich eine ganz neue architektur zu sein,

Aber ja 3.3 mal preis aufpreis fuer 15 bis 40% mehr performance ist jetzt nicht so der preisleistungsknaller wenn man die knaller fp64 leistung und die tensor cores nicht nutzt.

Bin aber zuversichtloch da mit wasserkuehlung ein bischen spass zu haben bis die ampere ti dann
Erscheint hoff naechstes jahr und wer will schon immer nur vernuenftig sein...

Meine v kommt vermitlich anfang naechster woche hab die aus usa importiert.
 
Zuletzt bearbeitet:
Die kommt dann öffentlich unter Wasser.
 
Gamer's Nexus hat die Karte auf ner AiO gebencht, da kamen auch schon nette 2GHz+ bei rum. Man kann davon ausgehen, dass recht viele Karten das auf Wasser schaffen sollten.

Auf Hwbot hat es jemand auf 2.1Ghz geschafft, eben mit einem general-VGA Waterblock. 35K Firestrike.
Wenn erst mal EKWB Fullcover-Blöcke bringt, die VRMs etc mitkühlen, dann wird das schon.
 
Auch wenn dieser Beitrag hier schon etwas älter ist, finde ich diese News von Golem doch unglaublich interessant.

Wo sich die Titan V doch an "Forscher und Entwickler richtet", untersagt Nvidia nun die Nutzung des Treibers in Rechenzentren (wie zB wohl auch Universitäten) wo ja bekanntlich viel geforscht wird.
 
die TITAN BLACK X XP V ist eine Schwanz Verlängerung und viel mehr auch nicht. nvidia will ja das echte fortscher sich die quadro oder Tesla karten kaufen. und verbietet es deshalb.
 
Die sollen eben gefälligst die Tesla V100 für 9-10k pro Karte kaufen.
Damit ist diese Titan für normale Desktop User nahezu nutzlos, für Miner nicht rentabel und da wo die super dollen Sachen, mit denen der Preis gerechtfertigt wurde, wirklich was dürfen sie nicht eingesetzt werden.
 
Warum haben eigentlich Titan-, Quadro-, ...-Karten immer so einen billigen, lauten Radiallüfter?
Die werden ja definitiv häufig auch in einer Workstation arbeiten, wo die Lautstärke nicht ganz unerheblich ist.
Vor allem - selbst wenn sie in einen Cluster kommen - müsste doch der Verschleiß und auch die Energieeffizienz durch solche Lüfter sinken?

Abgesehen davon, dass der Lüfter unter load dann auf 4000RPM und höher laufen muss, wird ein solcher Lüfter doch ganz sicher schlechter kühlen, als ordentliche Modelle mit größeren/mehreren Lüftern. D.h. mit besserer Kühlung sollte doch z.B. zumindest ein bisschen "Undervolting ab Werk" möglich sein, denn Energieeffizienz ist bei Workstations und spätestens bei Clustern ja nicht ganz unerheblich.

Natürlich gibt es ja auch Supercomputer die bereits mit Wasserkühlung laufen, aber ich denke der größere Teil dürfte wohl mit Luftkühlung arbeiten.
 
Weil das FE Design mit dem Radiallüfter warme Luft herausbefördert, lassen sich somit auch sehr kompakt einbauen, wenn zB mehrere GPUs genutzt werden, ohne das ein Hitzestau entsteht.
 
@mykoma: das generelle Konzept - also möglichst geschlossen und so viel Abwärme wie möglich hinten rausblasen - ist natürlich klar und selbstverständlich ist das für Cluster sehr praktisch, ich wollte aber auf diese kleinen Radiallüfter mit hohen Drehzahlen hinaus.

Das müsste vom Verschleiß (häufig sehr hohe Drehzahl), dem Stromverbrauch / Wärmeentwicklung usw. her doch eigentlich suboptimal sein?

Also ganz konkret: was spricht dagegen größere Lüfter oder mehrere Lüfter bei dem gleichen Konzept zu verbauen?
Das Gehäuse einer Titan hätte doch problemlos auch für 60-80mm Lüfter Platz. Und/oder mehrere Radiallüfter.
 
Du meinst die Temperaturen der GPU? Die sind auch mit den kleinen Radiallüftern vollkommen im Rahmen.

An sich hast du recht, je höher die Drehzahlen, desto höher der Verschleiß, allerdings habe ich bisher nur selten von defekten Lüftern bei den Referenzdesigns gehört, das lese ich (gefühlt) häufiger bei den axialen Aftermarketkühlern.

Gegen den größeren Lüfter spricht der Formfaktor und die Bauweise.
Für den Radiallüfter brauchst du ein geschlossenes Gehäuse, da sind selbst 92mm Lüfter schon riesig.
 
Mehr als 1 Lüfter funktioniert bei Radial nicht, weil es den Luftstrom auf der Karte vollkommen ruiniert und das Konzept ad absurdum führt. Größere Lüfter sind ebenfalls schwierig, man kann Radiallüfter, damit sie korrekt funktionieren, nicht direkt bis an den Rand der Karte setzen, da auch dann das Konzept des Radiallüfters nicht mehr funktioniert, da dort dann keine Luft mehr richtig angesaugt und abgeführt werden kann. Ich will nicht sagen, dass das Konzept der Referenzlüfter nicht ggf. optimierbar wäre, der Aufwand jedoch dürfte recht markant sein und mit solchen simplen und offensichtlichen Vorschlägen wie deinen beiden ist es konstruktiv eben nicht getan. Wäre es so einfach, ich denke die Ingenieure von Nvidia und AMD wären darauf gekommen. ;)
 
Alles klar, danke für das Feedback ^^
 
Es ist halt am Ende doch einfach kack frech ne Gamer Karte für 3100 €. :lol:
 
@moshkopp: Ich weiß man muss das alle 10 Posts wiederholen, also nochmal: das ist keine Gamerkarte.
 
Das wurde in diesem Thread doch schon x-fach durchgekaut. Hast du NVIDIAs Produktinformationen oder die CB News (oder oder) nicht gelesen?

Die FP16/64 Funktionalität, die Int Funktionalität, die Tensorcores, usw. usf. können mit Spielen nichts anfangen, d.h. so ziemlich alles, was Volta ausmacht, ist auf Deep Learning & Co. ausgerichtet und für Spiele(-leistung) uninteressant. Muss man noch mehr dazu sagen?

Ganz abgesehen von den konkreten Neuheiten ist die Titan V doch diesmal exakt der V100 minus ein ganz bisschen was, das abgeschaltet wurde (ebenfalls siehe News). Wäre die Titan V also eine "Gamerkarte", dann würdet ihr damit unterstellen, dass die V100 eine Gaming-GPU wäre...und damit auch die darauf basierenden Tesla- und Quadro-Produkte. Das ist Schwachsinn.
Die Profitreiber - also Software - allein können nicht den Unterschied machen, da z.B. gerade im wissenschaftlichen Umfeld von den Profitreibern in den allermeisten Fällen gar kein Gebrauch gemacht wird.
Da interessiert nur die Architektur und Rohleistung.
 
Zuletzt bearbeitet:
Siehe Ergänzung.
Nvidia scheint den Einsatz in entsprechenden Rechenzentren zu untersagen, womit das Argument im großen und ganzen Fassade für den Preis wäre. Für Einzelplatz PCs wird man die deep lerning Ausrichtung wohl kaum einsetzen.
 
@Wadenbeisser: Also erstmal vernachlässigt das immer noch die ganz eindeutige Ausrichtung der Hardware/Architektur auf professionelle Use-Cases bei der Titan V / V100.

Davon abgesehen ist das ebenfalls kein Argument, dass die Titan V nicht für professionelle Nutzer gedacht ist, denn professionelle Use-Cases sind ja nicht zu 100% nur Supercomputer/Cluster. Würde das zutreffen, dann würdet ihr genauso wieder z.B. der Quadro-Serie unterstellen, nicht für den professionellen Einsatz gedacht zu sein: die baut man auch in Workstations und nicht in Rechenzentren ein.

Es ist natürlich nicht der netteste Move von NVIDIA, die Titan V für Supercomputer/Cluster zu verbieten. Nichtsdestoweniger ist das nachvollziehbar, da die mit ~3000 Euro eine harte Konkurrenz für die eigenen Tesla-Karten wären.
Auf jeden Fall hat man aber ohnehin sehr selten Titan-Karten für Supercomputer verwendet: mir ist kein einziger wissenschaftlicher Cluster bekannt, der Titans verbaut hat.

Die Titans, gerade auch wegen dem Grafikanschluss und Preis, werden primär für Workstations und Dergleichen verwendet. Bei uns stehen z.B. ein paar rum, die per SSH erreichbar sind und die man dann nach Belieben für "kleinere" Experimente nutzen kann.


Wadenbeisser schrieb:
Für Einzelplatz PCs wird man die deep lerning Ausrichtung wohl kaum einsetzen.

Zum Einen hindert einen ja nichts daran, mehrere Titans in eine Workstations zu bauen und zum Anderen: doch, genau das ist der Fall.

Es ist tatsächlich sogar viel üblicher, auf 1-4 GPUs Deep Learning Modelle zu entwickeln, als auf vielen Nodes eines großen Clusters.
 
Zuletzt bearbeitet:
Zurück
Oben