flappes
Admiral
- Registriert
- Jan. 2006
- Beiträge
- 7.761
Das wird nur passieren, wenn man die KI mit ungefilterten ungeprüften Daten füttert. Im Moment scheint das jedenfalls der Fall zu sein.Weyoun schrieb:Das Problem ist nur Ein Mensch kann gezielt durch eigene Erfahrung lernen, eine KI "lernt" durch massenhafte Fütterung von Daten. Letzteres kann dazu führen, dass die KI irgendwann "übersättigt" ist und nicht mehr so funktioniert, wie sie soll. Fehler sind dann unvermeidlich.
Nur mit einer guten Basis wird die KI erkennen können, ob die neuen Daten valide/plausibel sind. Das heißt nicht, dass die Daten korrekt sind, es könnte zum Beispiel eine Theorie nach längerer Zeit über den Haufen geworfen werden, weil man neue Erkenntnisse hat. Das müsste man der KI entsprechend mitteilen, sonst würde sie die neuen Erkenntnisse als fehlerhaft einstufen oder als Versuch der Datenmanipulation.
Wir befinden uns im Moment in der Entwicklungsphase, wo man mal alles was man in die Finger bekommen kann in die Systeme einfüttert, um einen Nutzen zu erzielen. Wichtiger wird in Zukunft die Qualität der Daten und das wird teuer.