News Nvidia Volta: Tesla V100 bringt 15 TFLOPs bei 5.120 ALUs auf 815 mm²

@ Ned Flanders

Hm, also soll die Leistung der Tensor Cores nicht "seriös" Nachweißbar sein? (Funktionieren, aber keiner weiß wie?) ^^

Aber ja, die Namensgebung hat was.
 
luckysh0t schrieb:
Hm, also soll die Leistung der Tensor Cores nicht "seriös" Nachweißbar sein? (Funktionieren, aber keiner weiß wie?) ^^

Solange in jedem Review nur eine Karte verwendet wird, fällts noch nichtmal auf, dass die Treffer nicht besser sind als statistisches Noise. ^^
 
Die Tensor Cores sind reines Gold auf dem Chip. Da kann man freilich noch so viel in Software optimieren (Blockverarbeitung mit Shared Memory zB), wie man will. An die Leistung der Tensor Cores wird man niemals rankommen.

Wirklich bedauerlich ist allerdings die lange Wartezeit bis Volta in die GeForce GTX Reihe eingebaut wird (hab gelesen Q1/2018, eventuell sogar Q2). Wer jetzt aufrüsten möchte, sollte das mit Pascal machen. Weiterhin vermute ich, dass die Tensor Core auf den GTX Chips gar nicht vorhanden sein werden. Was soll ein Spieler mit denen? Eventuell bekommen die GPU dann mehr gewöhnliche Cores spendiert (was für Spieler sicherlich auch naise ist^^).

Die Tensor Cores könnten in den Quadro Karten verkauft werden (freilich gegen hohen Aufpreis ;) ).
 
Zuletzt bearbeitet:
Mr.Seymour Buds schrieb:
Weiterhin vermute ich, dass die Tensor Core auf den GTX Chips gar nicht vorhanden sein werden. Was soll ein Spieler mit denen? Eventuell bekommen die GPU dann mehr gewöhnliche Cores spendiert (was für Spieler sicherlich auch naise ist^^).

Hm, wenn Spiele die "KI" Berechnung darauf auslagern/erweitern (so als Gegenstück zu PhysX) könnten, wäre das doch auch schonmal was, oder nicht ? (Allerdings binn ich nicht in dieser Materie drinn, könnte also auch totaler Mumpitz sein, dieser Anwendungszweck)
 
Zuletzt bearbeitet:
Mir fällt kein Spiel ein, das eine solche digitale Mustererkennung benutzt. Für gewöhnliche Spiele ist eher Single-Precision Leistung, und davon möglichst viel, angesagt.
 
Kasmopaya schrieb:
Von wegen, keine einzige Pascal hat das VRam Polster bekommen das eine 8800 GTX hatte. Nur eine Titan XM hat sowohl die Rohleistung als auch den VRam bekommen, zu einem wie du richtig sagst KOPF/WAND Preis.


Nicht immer, die HD 7970 war früher da als Kepler und hatte 100% VRam Soll. Die HD 5000 muss man hier auch erwähnen. AMD bricht zur Zeit(seit Fury X) der Fokus auf HBM das Genick.

Stimmt auch wieder, wenn man den GP102 mit einer 8800GTX vergleichen würde, hätte sie mindestens 16 GB VRAM haben müssen.
Der VRAM Bug der 8800 war aber auch nicht ohne^^

Der Ansicht bezüglich HBM bin ich auch, jedoch hat AMD keine andere Möglichkeit zur Zeit.
Nvidia ist mit GDDR5X was sie mehr oder weniger selbst mit Micron finanziert haben zur Zeit im Vorteil.

Jedoch muss man auch berücksichtigen, dass AMDs Investitionen in HBM schon vor langer Zeit begonnen haben und man kann keine Speicher Technik welche man über 8 Jahre entwickelt einfach ignorieren.

Die Platz, Bandbreiten und Stromsparenden Aspekte von HBM wird denen erst zu Gute kommen, wenn sie diese in ihre APUs bzw. in die Mobile Branche einbringen, das wird mit ziemlicher Sicherheit einer der Gründe sein warum sie auf den HBM Zug gestiegen sind, schließlich wird HSA erst dann richtig profitieren, wenn plötzlich ein 4 GB Stack mit hoher Bandbreite CPU und GPU auf einem Die kombiniert versorgen kann, dann sollten diese blöden Bandbreiten Limits der APUs hoffentlich verschwinden und diese aufblühen und hoffentlich auch stärkere APUs ermöglichen, die TDP war schließlich nie das Problem nur der lahme Arbeitsspeicher ^^
 
https://youtu.be/BR9h47Jtqyw

Sehr aufschlussreich und dann kommt die Matrizenrechnung gleich auch sehr schnell rüber, jetzt is mir klar weshalb die Tensor Kerne so wichtig sind.
 
Zuletzt bearbeitet:
Auf 3DCenter gibt es eine interessante News. Demnach wollte Nvidia Volta in 10nm bringen, sah sich aber mangels Verfügbarkeit von 10nm gezwungen dieses 815mm² Monstermit 12nm zu fertigen, um ihre vertraglichen Verpflichtungen mit der US-Regierung erfüllen zu können. Dabei verfehlt Volta diese Ziele sogar deutlich:
Ziel:
9,5TFlops Double Precision, 1Tb Speicherbandbreite, 64GB Speicher
Erreicht:
7,5TFlops Double Precision, 900Gb Speicherbandbreite, 16GB Speicher

klingt als hätte sich Nvidia völlig übernommen und muss nun abliefern..
 
Zuletzt bearbeitet:
Was heisst übernommen, NVIDIA wird das schon abkönnen, selbst wenn sie mit diesem Produkt letztendlich Verlust machen würden. IBM muss in ihre neuen Supercomputer 50% mehr GPU reinstopfen weshalb die Dinger jetzt 30% mehr Saft verbrauchen. Wieviel Geld wer da nun wofür auch immer bezahlt wird oder ob es abgesehen von der höheren Stromrechnung für IBM am Ende keinen Unterschied macht wissen wir ja nicht.

Wahrscheinlich wird die Marge bei NVIDIA diesmal einfach etwas schlechter ausfallen als üblich weil die yields bei dem riesenchip vermutlich nicht ganz so toll sind.
 
Ja Quatsch. BTW Gerüchte das Volta morgen früh um 05:30 auf der Computex präsentiert werden könnte. Glaube aber nicht dran. Wäre aber geil!
 
Touchthemars schrieb:
Schaut euch dieses Video an. Wir PC Gamer werden für Nvidia und AMD in Zukunft nicht mehr so wichtig sein.

https://www.youtube.com/watch?v=PkeKx-L_E-o

Die Zahlen für Gaming werden zwar nicht mehr die größten sein. Aber sie wachsen noch und sind ein sehr gutes Standbein. Damit sollte es eigentlich besser werden. Denn nun muss man nicht mehr eine Karte für alles Entwickeln. Man hat nun den Luxus reine Gaming Chips und reine Rechen Chips zu entwickeln, was effizienter und besser ist für beide Seiten.

Meine Idee für die Zukunft ist dann die Modulbauweise. Je nach Anwendung Knaller du ein FP64 oder Int8 auf den Interposer.
 
Zuletzt bearbeitet:
Zurück
Oben