Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
@blende11 du schreibst deine Texte auch in Excel oder?
Das ganze habe ich auch noch viel absurder hinbekommen aber ich schätze mal das dass inzwischen bei großen Modellen inzwischen besser ist. Ich habe mal eine Lokale KI mit Internetzugang nach der Biografie eines Historischen Königs gefragt. Die KI hat mir korrekt das Geburtdatum, die Thronbesteigung und den Todestag genannt, ist aber in der Nachfrage glorreich daran gescheitert mir zu sagen, wie alt die Person bei der Thronbesteigung war oder wie lange sie regiert hat
Seit der allersten woche wird u.a bei logik und Mathe darauf hingewiesen, das LLMs nicht rechnen koennen.
Ist auch nicht notwendig, dazu gibt es deterministische methoden und man braucht kein probabilistisches verfahren
Mag sein. Fuer mich zaehlt nur das was raus kommt. @madmax2010
In meinem Fall halt das Google-Dingens gefragt und eine richtige Antwort bekommen. Was Gemini selbst benutzt ist mir in dem Fall nebensaechlich. 😁
Eventuell habe ich ja auch nachgerechnet?
Neee. Das Ergebnis wurde ja mehrfach genannt, da schalte ich meinen ollen Taschenrechner nicht extra fuer an. 😉
Ganz ehrlich: Ich habe das nie so genau überprüft, aber ich finde es schon merkwürdig, dass eine KI nicht richtig rechnen kann. Auch wenn sie nicht speziell dafür gedacht ist – grundlegende Dinge wie Matheaufgaben sollten trotzdem möglich sein und es sollte nicht schwer sein, ihr das beizubringen.
Das liegt einfach an der grundlegenden Technik hinter diesen Systemen. Copilot, ChatGPT und Co. sind im Kern Sprachmodelle und keine echten Taschenrechner.
Wenn man da eine Aufgabe wie 9687 * 4453 eingibt, rechnet die KI nicht im mathematischen Sinn. Sie schaut sich den Text der Aufgabe an und ermittelt rein über Wahrscheinlichkeiten, welche Ziffernfolge statistisch gesehen als Antwort folgen müsste.
Bei einfachen Sachen wie 7 * 8 klappt das fehlerfrei, weil genau diese Zeichenfolge millionenfach in den Trainingsdaten aus dem Netz vorkommt. Das Modell hat das quasi "auswendig" gelernt. Solche spezifischen, vierstelligen Multiplikationen tauchen im Trainingsmaterial aber so gut wie nie auf. Weil dem Modell das mathematische Konzept von Stellenwerten und Überträgen völlig fehlt, stückelt es einfach wild Ziffern zusammen und rät das Ergebnis.
Eigentlich haben die Anbieter für sowas kleine Rechner-Tools im Hintergrund angebunden. Wenn die KI aber nicht checkt, dass sie dieses Tool jetzt benutzen sollte, versucht sie die Matheaufgabe rein über ihr Sprachverständnis zu lösen – was dann komplett in die Hose geht. Bei Zahlen darf man diesen Text-KIs einfach nicht blind vertrauen.
Das darf man eben nie und genau da ist der Haken. Man weiß nicht, ob man etwas glauben kann oder nicht. Bei einer Rechenaufgabe ist das noch einfach nachprüfbar, bei andern Dingen eben nicht. Von daher sind die Modelle für mich im Augenblick noch relativ nutzlos,
Wenn man da eine Aufgabe wie 9687 * 4453 eingibt, rechnet die KI nicht im mathematischen Sinn. Sie schaut sich den Text der Aufgabe an und ermittelt rein über Wahrscheinlichkeiten, welche Ziffernfolge statistisch gesehen als Antwort folgen müsste.
Bin mir nicht sicher, ob das wirklich eine grundsätzliche Einschränkung ist. Wenn man ihr sagt, führe eine schriftliche Multiplikation durch, dann tut sie das auch und anscheinend ohne, dass da irgendwelche Tools im Hintergrund aktiv sind. Sie wendet einfach das Rechenschema an und führt 9687 * 4453 auf Operationen zurück, die sie kennt. Das Gleiche funktioniert bei symbolischen Berechnungen hervorragend. Also denke ich, es geht eher darum zu erkennen wenn welche Schritte erforderlich sind.