News Nvidia: Wissenschaftler berichten von Rechenfehlern mit der Titan V

Volker

Ost 1
Teammitglied
Dabei seit
Juni 2001
Beiträge
14.369
#1
In spezifischen wissenschaftlichen Anwendungen soll Nvidias 3.000-Euro-Grafikkarte Titan V sich mitunter verrechnen. Das berichten Forscher auf Basis ihrer eigenen Erfahrungen. Die genauen Hintergründe sind aber noch ungeklärt. Neben der Hardware kann auch Software die Ursache sein. Nvidia lehnte einen Kommentar bisher ab.

Zur News: Nvidia: Wissenschaftler berichten von Rechenfehlern mit der Titan V
 

xxMuahdibxx

Fleet Admiral
Dabei seit
Juli 2011
Beiträge
14.966
#2
Am Ende ist es doch auch eine Frage mit welchen Programmen oder Shadern gerechnet wird ...

Denke kaum das es ein Speicherfehler ist ... der würde nicht zu immer ca. 10 % Abweichung führen ...
 
Dabei seit
Aug. 2011
Beiträge
11.705
#4
Am Ende ist es doch auch eine Frage mit welchen Programmen oder Shadern gerechnet wird ...

Denke kaum das es ein Speicherfehler ist ... der würde nicht zu immer ca. 10 % Abweichung führen ...
Es geht ja nicht darum, dass das Ergebnis immer zu 10% abweicht.
Sondern in 10% der Fälle ist die Berechnung bzw. das Ergebnis nicht korrekt, um wieviel steht da nicht.

EDIT:
glaube nicht, dass es sich hier um einen gravierenden HW-Fehler handelt.
Entweder ist was mit der Software, oder aber sowas wie die angesprochene Speichergeschichte.
Klingt zumindest irgendwo plausibel in Hinblick auf die 10%.
 
Dabei seit
Dez. 2007
Beiträge
2.703
#5
Naja - das kann heftig sein für eine fürs Computing ausgelegte Karte. Aber ohne genauere Details ist es müssig hier drüber zu spekulieren.

Es ist ja noch nicht mal ausgeschlossen bis jetzt dass es NICHT an der Software liegt.

Evtl. Betrifft das nur bestimmte "Genauigkeiten" also Single-Precision, Double-Precision etc. - müsste man halt wissen was das Rechenprogramm da benutzt.
 
Zuletzt bearbeitet:

JenZor

Lt. Commander
Dabei seit
Aug. 2011
Beiträge
1.177
#7
Dabei seit
Apr. 2008
Beiträge
3.844
#8
Naja, den Softwarefehler kann man m.M.n. ausschließen. Denn es wurden ja 4 Karten genommen, wobei 2 Karten immer richtig Rechneten und 2 halt Falsch.

Wenn ich an meiner Aquaero (Lüftersteuerung) 4 Temperatursensoren anschließe und 2 immer die richtige Temperatur auslesen und Zwei öfters daneben liegen, wirds zu 99% an den Sensoren liegen.
 
Dabei seit
Sep. 2009
Beiträge
6.477
#9
Interessant wäre, ob dies auch bei den Quadros auftritt, die m.W. Forscher bislang immer für physikalische Berechnungen etc. benutzen.
 

DaZpoon

Lt. Commander
Dabei seit
Dez. 2009
Beiträge
1.820
#11
Ein 3000-Euro Zufallsgenerator :)

Was haben solche Rechenfehler eigentlich in Blockchains für Auswirkungen?
 

UNRUHEHERD

Lt. Junior Grade
Dabei seit
Mai 2013
Beiträge
355
#13
Nein das kann nicht sein, Nvidia macht keine Fehler. /s

Mal im Ernst: Ich hoffe für die wissenschaftlichen Einrichtungen und Nvidia, dass es sich um einen Bug in der Software handelt oder zumindest um ein Problem mit dem Speichertakt, das über den Treiber gelöst werden könnte.
 
Dabei seit
Mai 2013
Beiträge
3.708
#14
Würd mich mal interessieren in welchem Zahlenbereich sich diese Verrechnungen abspielen.
Da gibt ja ne ziemlich große Range von 1+1=3 bis zu einer 1 statt einer 2 bei der dreihundertsten Nachkommastelle.
 
Dabei seit
Jan. 2015
Beiträge
792
#17
Hmm ich dachte die Tesla ist eigentlich Prosumer. Ihr fehlt der Support und die Absicherung der Quadro Reihe, hat dafür aber per Treiber mehr GGPU Funktionen als die GeForce Pendants freigeschalten.

Ich hatte ihrer Einsatzgebiet daher sowieso immer dort vermutet, wo es explizit nicht auf 100% Genauigkeit ankommt?
 

Nitschi66

Kreisklassenmeister
Dabei seit
Nov. 2007
Beiträge
8.077
#18
Denke kaum das es ein Speicherfehler ist ... der würde nicht zu immer ca. 10 % Abweichung führen ...
Keine Ahnung wie man das schafft... Computerbase hat es nun wirklich einwandfrei erklärt.
Es tritt keine Abweichung von 10% auf, sondern in 10% der Fälle war die Berechnung fehlerhaft.
 

jk1895

Lieutenant
Dabei seit
Juni 2013
Beiträge
808
#19
Ob du es glaubst oder nicht, Computer sind sogar ziemlich schlechte Rechner mit Hinblick auf ihre Genauigkeit ;)
Computer verrechnen sich permanent, Stichwort Maschienenzahlen und Rundungsfehler.
Da kann was nicht stimmen mit eurer Aussage, denn dann wären die Millionen € schweren Super-Computer mit ihrem extremen Stromhunger für die Tonne?! :)
Andererseits würde das die schlechten Wettervorhersagen erklären... :lol:
 

rg88

Fleet Admiral
Dabei seit
Feb. 2015
Beiträge
19.374
#20
Computer verrechnen sich permanent, Stichwort Maschienenzahlen und Rundungsfehler.
Dafür gibts aber IEEE-Normen, damit man weiß, wie das Ergebnis "falsch" ist. Der Computer verrechnet sich hier nicht, weil reproduzierbar das selbe Ergebnis rauskommt, das nach der Norm erwartet werden kann. Ein Rundungsfehler ist also lediglich eine technisch bedingte Ungenauigkeit.
Verrechnen ist ein offensichtlich falsches Ergebnis, wie beim FDIV-Bug im Pentium. Am schlimmsten sind aber Fehler, die nicht direkt reproduzierbar auftreten und manchmal/zufällig falsche Ergbenisse liefern. Hier kann man dann wirklich von verrechnen reden
 
Top