News Nvidia Volta: Tesla V100 bringt 15 TFLOPs bei 5.120 ALUs auf 815 mm²

Eusterw schrieb:
2,4-3,7fach höhere Leistung bei der Bildanalyse, bei gleichem Stromverbrauch und nur 1,3facher Chipfläche ergeben am Ende auf gleicher Chipfläche im Schnitt mehr als die doppelte Leistung.

Das sagt Nvidia dazu in der Pressemitteilung:

It provides a 5x improvement over Pascal™, the current-generation NVIDIA GPU architecture, in peak teraflops, and 15x over the Maxwell™ architecture, launched two years ago. This performance surpasses by 4x the improvements that Moore's law would have predicted.

Schon geil :cool_alt:
 
Wow. Aktie von gestern 106 auf heute 120 hochgeprügelt. :D

Die Leute kaufen auf jedenfall den Hype ab, so viel steht fest.
 
Eusterw schrieb:
Im Stromverbrauch.

Das ist für mich jedoch kein Architektur-Vorteil, sondern bedingt durch Verbesserung bei der Lithographie. Das einzige was ich sehe, wäre die Sache mit den Tensor-Cores.
 
Ich verstehe nicht ganz, warum hier die K40 und M40 in der Liste aufgeführt werden und nicht die K80 und M80? So sehen die Sprünge viel krasser aus, als sie in Wahrheit sind.
 
Tja, was daran genau "poor" werden sollte, ist dann auch eine Frage, die man der AMD-Marketingabteilung stellen sollte, außer vielleicht, dass die Kunden ärmer werden, weil die GPUS mit Sicherheit noch um einiges teurer werden als aktuell noch zu Pascal-GPU Zeiten.

Geschickt nimmt nVidia damit natürlich den nahenden AMD Ankündigungen (zu Vega und Navi GPUs und Raven Ridge APUs) und dem RX Vega-Marktstart den Wind aus den Segeln.

Wer weiß, vielleicht schießt man ja mit einer Volta GeForce Ankündigung noch einmal quer zu Beginn der Computex/am 30. Mai, wundern würde mich das nicht wirklich, da kann einem AMD fast schon leid tun, zumal die Leute - richtig erwähnt - voll auf den Hypezug Huangs aufspringen.
 
@Faust: Ich glaube nicht, das 14->12nm, eine Einsparung von 33% beim Verbrauch bringen (50% Mehrleistung). Ich denke, da braucht es schon Architekturveränderungen, um das bei so einem kleinen Fertigungswechsel zu erreichen.
 
Faust2011 schrieb:
Das ist für mich jedoch kein Architektur-Vorteil, sondern bedingt durch Verbesserung bei der Lithographie. Das einzige was ich sehe, wäre die Sache mit den Tensor-Cores.

Lies doch einfach mal die News. Es erscheint mir offensichtlich, dass du den Artikel bestenfalls überflogen, schlechtestenfalls nur die Titelzeile gelesen hast.
Da steht drin, was sich an der Architektur geändert hat, wie zum Beispiel massive Umbaumaßnahmen bei den SMs.

Aber mal andersherum gefragt: Welche Verbesserungen an der Architektur hältst du denn für dringend notwendig? Was sollte nVidia mit Volta konkret anders machen? Und wenn du genau weißt, dass die alles umkrempeln müssten, weil Volta ja sonst eine lahme Krücke wird... warum zur Hölle hast du dann keinen Arbeitsvertrag mit siebenstelligem Jahresgehalt in Santa Clara? :D
 
Faust2011 schrieb:
Das ist für mich jedoch kein Architektur-Vorteil, sondern bedingt durch Verbesserung bei der Lithographie. Das einzige was ich sehe, wäre die Sache mit den Tensor-Cores.

oO weil man mit Architektur auch kein Strom sparen kann... dazu ist nix mehr zu sagen.

Und Abwärme ist für die Industrie unheimlich wichtig wegen Kühlmöglichkeiten im Dauereinsatz...
 
7500GFLOPs DP64 auf einer Karte. Das Macht in einer entsprechend bestückten Workstation (zwei Karten) 15000GFLOPs.

Im Jahr 2000 hatte der Top 1 Supercomputer (der ein Gebäude füllte), 12300GFLOPs SP32 Spitzenleistung.
https://www.heise.de/ct/artikel/And-the-Winner-is-IBM-287984.html

In 17 Jahren von einem Gebäude in ein ca. 40l Case. Nice Job! Und von einem Stromverbrauch im hohen kW Bereich hin zu 200-300W.

Angesichts dieser großen, verfügbaren Rechenleistung ist es einfach nicht zu verstehen, warum die Menschheit ihre Probleme nicht in den Griff bekommt.
 
Candy_Cloud schrieb:
Angesichts dieser großen, verfügbaren Rechenleistung ist es einfach nicht zu verstehen, warum die Menschheit ihre Probleme nicht in den Griff bekommt.

Weil auch ein größerer Taschenrechner keinen Tiger in ein Streifenhörnchen verwandeln kann.

Oder von mir aus auch; Selbst der schnellste Supercomputer, kann aus Scheiße keine Sahne schlagen. :D
 
  • Gefällt mir
Reaktionen: H3llF15H und psYcho-edgE
15 Teraflops, also genau soviel wie meine übertaktete 1080Ti. Wenn die als Geforce dann kommt und sich der Takt ebenso gut steigern lässt wie bei den Vorgängern, dann sollte da schon was zwichen 18-20 Teraflops machbar sein.^^
 
Krass, Nvidia wird damit den einzigen Konkurrenten völlig alt aussehen lassen.

Wie damals mit der 8800 GTX.
 
Zuletzt bearbeitet von einem Moderator:
Lübke82 schrieb:
15 Teraflops, also genau soviel wie meine übertaktete 1080Ti. Wenn die als Geforce dann kommt und sich der Takt ebenso gut steigern lässt wie bei den Vorgängern, dann sollte da schon was zwichen 18-20 Teraflops machbar sein.^^
Rechne mal lieber damit, dass du beim Takt weiterhin auf Pascal-Niveau bleiben wirst. Vielleicht ist die magische 2GHz-Grenze öfters möglich, aber mehr würde ich nicht erwarten.
 
Eusterw schrieb:
Im professionellen Markt ist das eine wichtige Größe. Eine 300 Watt Grafikkarte, welche 24/7 rechnet, benötigt 2.600 Kilowattstunden Strom im Jahr. Bei 20 Cent je Kilowatt, immerhin über 500 Euro.
r.

Du hast vergessen, dass Großunternehmen eher in Richtung 0,05€/KWh bezahlen. Nur private Haushalte zahlen 0,27€/KWh (in Deutschland). :freaky:
 
Blueeye_x schrieb:
Krass, Nvidia wird damit den einzigen Konkurrenten völlig alt aussehen lassen.

LOL

Die jetzige Consumer Topmodell von Nvidia hat 471mm2 und kostet 800 Euro.

Jeder kann selber schätzen was 815mm2 Chipfläche von NV ungefähr kosten werden.
So einen großen Chip gab es soweit ich weiß von NV noch nie.

Das ist für mich der beste Beweis das AMD-Vega und AMD-Navi gut werden.
 
Zuletzt bearbeitet:
derfledderer schrieb:
Du hast vergessen, dass Großunternehmen eher in Richtung 0,05€/KWh bezahlen. Nur private Haushalte zahlen 0,27€/KWh (in Deutschland)2

Trotzdem machen die Stromkosten z.B. für das DKRZ (Deutsches Klima Rechenzentrum in Hamburg) knapp 4 Millionen in 2 Jahren aus.

Da freuen sich die Unternehmen und Wissenschaftler, wenn man mehr Leistung für weniger kriegt^^
 
Mracpad schrieb:
Oder von mir aus auch; Selbst der schnellste Supercomputer, kann aus Scheiße keine Sahne schlagen. :D

Geil. Echt geiler Spruch. Hab mich weggeschmissen

Die Karte is natürlich auch ganz nett.
 
Kasmopaya schrieb:
Monster ist eine extreme Untertreibung. Mir fällt da nur ein Wort ein. Wie eine Titan. Wird aber nie in den Consumer Markt kommen. Einfach zu fett und zu wenig Gewinn für NV.

Dieses Ding würdest du als eine Titan bezeichnen/sie damit vergleichen?
So unglaubliche Rechenpower und dann nur popelige 16GB VRAM? ;)
 
derfledderer schrieb:
Du hast vergessen, dass Großunternehmen eher in Richtung 0,05€/KWh bezahlen. Nur private Haushalte zahlen 0,27€/KWh (in Deutschland). :freaky:
Wenn du nicht gerade Stahl oder Aluminium schmelzt, zahlst du schon mal 7 Cent EEG je Kilowatt. Dazu dann die Stromkosten und (was inzwischen fast mehr ausmacht) die Netznutzung.

5 Cent haben wir nicht mal als Eisengiessrei mit 40 GWh Abnahme im Jahr gezahlt...
 
Linmoum schrieb:
Rechne mal lieber damit, dass du beim Takt weiterhin auf Pascal-Niveau bleiben wirst. Vielleicht ist die magische 2GHz-Grenze öfters möglich, aber mehr würde ich nicht erwarten.

Damit rechne ich auch. Damit sollte sie ja auch in etwa in den von mir genannten Bereich liegen.
 
Zurück
Oben