News Nvidia: Wissenschaftler berichten von Rechenfehlern mit der Titan V

Volker

Ost 1
Teammitglied
Registriert
Juni 2001
Beiträge
18.249
In spezifischen wissenschaftlichen Anwendungen soll Nvidias 3.000-Euro-Grafikkarte Titan V sich mitunter verrechnen. Das berichten Forscher auf Basis ihrer eigenen Erfahrungen. Die genauen Hintergründe sind aber noch ungeklärt. Neben der Hardware kann auch Software die Ursache sein. Nvidia lehnte einen Kommentar bisher ab.

Zur News: Nvidia: Wissenschaftler berichten von Rechenfehlern mit der Titan V
 
Am Ende ist es doch auch eine Frage mit welchen Programmen oder Shadern gerechnet wird ...

Denke kaum das es ein Speicherfehler ist ... der würde nicht zu immer ca. 10 % Abweichung führen ...
 
xxMuahdibxx schrieb:
Am Ende ist es doch auch eine Frage mit welchen Programmen oder Shadern gerechnet wird ...

Denke kaum das es ein Speicherfehler ist ... der würde nicht zu immer ca. 10 % Abweichung führen ...

Es geht ja nicht darum, dass das Ergebnis immer zu 10% abweicht.
Sondern in 10% der Fälle ist die Berechnung bzw. das Ergebnis nicht korrekt, um wieviel steht da nicht.

EDIT:
glaube nicht, dass es sich hier um einen gravierenden HW-Fehler handelt.
Entweder ist was mit der Software, oder aber sowas wie die angesprochene Speichergeschichte.
Klingt zumindest irgendwo plausibel in Hinblick auf die 10%.
 
Naja - das kann heftig sein für eine fürs Computing ausgelegte Karte. Aber ohne genauere Details ist es müssig hier drüber zu spekulieren.

Es ist ja noch nicht mal ausgeschlossen bis jetzt dass es NICHT an der Software liegt.

Evtl. Betrifft das nur bestimmte "Genauigkeiten" also Single-Precision, Double-Precision etc. - müsste man halt wissen was das Rechenprogramm da benutzt.
 
Zuletzt bearbeitet:
2 kleine Orthographie Teufel:
Dabei ist die Titan V primär für den professionellen und damit auch den wissenschaftlichen Einsatz gedacht gedacht.
Warum nur zwei der Modelle[/e] in nur zehn Prozent der Berechnungen dieses Fehlverhalten aufweisen,



@Topic:
Wenn es laut The Register ggf. am RAM Takt liegt, wurde denn das mal getestet?
 
Naja, den Softwarefehler kann man m.M.n. ausschließen. Denn es wurden ja 4 Karten genommen, wobei 2 Karten immer richtig Rechneten und 2 halt Falsch.

Wenn ich an meiner Aquaero (Lüftersteuerung) 4 Temperatursensoren anschließe und 2 immer die richtige Temperatur auslesen und Zwei öfters daneben liegen, wirds zu 99% an den Sensoren liegen.
 
Interessant wäre, ob dies auch bei den Quadros auftritt, die m.W. Forscher bislang immer für physikalische Berechnungen etc. benutzen.
 
Ein 3000-Euro Zufallsgenerator :)

Was haben solche Rechenfehler eigentlich in Blockchains für Auswirkungen?
 
  • Gefällt mir
Reaktionen: DjangOC
Nein das kann nicht sein, Nvidia macht keine Fehler. /s

Mal im Ernst: Ich hoffe für die wissenschaftlichen Einrichtungen und Nvidia, dass es sich um einen Bug in der Software handelt oder zumindest um ein Problem mit dem Speichertakt, das über den Treiber gelöst werden könnte.
 
Würd mich mal interessieren in welchem Zahlenbereich sich diese Verrechnungen abspielen.
Da gibt ja ne ziemlich große Range von 1+1=3 bis zu einer 1 statt einer 2 bei der dreihundertsten Nachkommastelle.
 
Hmm ich dachte die Tesla ist eigentlich Prosumer. Ihr fehlt der Support und die Absicherung der Quadro Reihe, hat dafür aber per Treiber mehr GGPU Funktionen als die GeForce Pendants freigeschalten.

Ich hatte ihrer Einsatzgebiet daher sowieso immer dort vermutet, wo es explizit nicht auf 100% Genauigkeit ankommt?
 
Denke kaum das es ein Speicherfehler ist ... der würde nicht zu immer ca. 10 % Abweichung führen ...
Keine Ahnung wie man das schafft... Computerbase hat es nun wirklich einwandfrei erklärt.
Es tritt keine Abweichung von 10% auf, sondern in 10% der Fälle war die Berechnung fehlerhaft.
 
Naxtrumrar schrieb:
Ob du es glaubst oder nicht, Computer sind sogar ziemlich schlechte Rechner mit Hinblick auf ihre Genauigkeit ;)

immortuos schrieb:
Computer verrechnen sich permanent, Stichwort Maschienenzahlen und Rundungsfehler.

Da kann was nicht stimmen mit eurer Aussage, denn dann wären die Millionen € schweren Super-Computer mit ihrem extremen Stromhunger für die Tonne?! :)
Andererseits würde das die schlechten Wettervorhersagen erklären... :lol:
 
immortuos schrieb:
Computer verrechnen sich permanent, Stichwort Maschienenzahlen und Rundungsfehler.

Dafür gibts aber IEEE-Normen, damit man weiß, wie das Ergebnis "falsch" ist. Der Computer verrechnet sich hier nicht, weil reproduzierbar das selbe Ergebnis rauskommt, das nach der Norm erwartet werden kann. Ein Rundungsfehler ist also lediglich eine technisch bedingte Ungenauigkeit.
Verrechnen ist ein offensichtlich falsches Ergebnis, wie beim FDIV-Bug im Pentium. Am schlimmsten sind aber Fehler, die nicht direkt reproduzierbar auftreten und manchmal/zufällig falsche Ergbenisse liefern. Hier kann man dann wirklich von verrechnen reden
 
Zurück
Oben