CoPilot kann nicht rechnen

Incanus schrieb:
Das darf man eben nie und genau da ist der Haken. Man weiß nicht, ob man etwas glauben kann oder nicht. Bei einer Rechenaufgabe ist das noch einfach nachprüfbar, bei andern Dingen eben nicht. Von daher sind die Modelle für mich im Augenblick noch relativ nutzlos,

doch kann man wen man weis wie, kann gerne tipps geben ist einfacher als man denkt
Ergänzung ()

Schwachkopp schrieb:
Bin mir nicht sicher, ob das wirklich eine grundsätzliche Einschränkung ist. Wenn man ihr sagt, führe eine schriftliche Multiplikation durch, dann tut sie das auch und anscheinend ohne, dass da irgendwelche Tools im Hintergrund aktiv sind. Sie wendet einfach das Rechenschema an und führt 9687 * 4453 auf Operationen zurück, die sie kennt. Das Gleiche funktioniert bei symbolischen Berechnungen hervorragend. Also denke ich, es geht eher darum zu erkennen wenn welche Schritte erforderlich sind.

Die KI muss nur checken was man von ihr will
 
@Brati23 ich bedanke mich sogar öfters für die antwort :lol:
 
  • Gefällt mir
Reaktionen: N00bn00b
@Syntax_41
Ich denke, Dein Körper wird dennoch zur Resourcengewinnung genutzt. Vielleicht wird sich noch für die Kooperation bedankt, wenn die KI bis dahin Humor entwickelt hat. ;)
 
  • Gefällt mir
Reaktionen: h00bi und Syntax_41
Syntax_41 schrieb:
Eigentlich haben die Anbieter für sowas kleine Rechner-Tools im Hintergrund angebunden. Wenn die KI aber nicht checkt, dass sie dieses Tool jetzt benutzen sollte, versucht sie die Matheaufgabe rein über ihr Sprachverständnis zu lösen – was dann komplett in die Hose geht. Bei Zahlen darf man diesen Text-KIs einfach nicht blind vertrauen.
Nicht nur bei Rechenaufgaben. "KI" tools sind super, wenn ich das Ergebnis überprüfen kann. Und da ich mich offensichtlich nicht darauf verlassen kann, dass das LLM meine Rechenaufgabe richtig löst und ich die daher überprüfen muss, kann ich sie auch direkt in den Taschenrechner eintippen. Brauch auch ein vielfaches weniger an Energie
 
  • Gefällt mir
Reaktionen: h00bi, redfng und tRITON
Nilson schrieb:
Nicht nur bei Rechenaufgaben. "KI" tools sind super, wenn ich das Ergebnis überprüfen kann. Und da ich mich offensichtlich nicht darauf verlassen kann, dass das LLM meine Rechenaufgabe richtig löst und ich die daher überprüfen muss, kann ich sie auch direkt in den Taschenrechner eintippen. Brauch auch ein vielfaches weniger an Energie

Dafür muss man zuerst lernen eine KI richtig zu bedienen zu 99,9 % ist die fehlerquelle der mensch der davor sitzt
 
  • Gefällt mir
Reaktionen: R4Z3R
LLMs sind halt vom Grundsatz erstmal nur (sehr ausgefeilte) Mustererkennungsmaschinen auf Basis von Statistik.

Die zerlegen die Eingabe in Tokens (Wörter, Buchstabengruppen, ...) und die Antwort besteht dann aus den Tokens, die in den Trainingsdaten statistisch häufiger mit den eingegebnen Tokens auftauchen. Die KI sieht also nicht zwangsweise, dass es irgendwas ausrechnen soll. Die sieht erstmal nur, dass in der Eingabe Zahlen und Rechenzeichen in einer bestimmten Reihenfolge vorkommen und dann "guckt" die KI, was als Antwort am besten zu diesem Muster passt. Je nachdem, wie die Eingabe insgesamt formuliert ist, rechnet sie es dann tatsächlich aus oder gibt sie generiert nur eine Tokenkombination, die nur so aussieht, also würde sie es ausrechnen. Denn beides passt aus statistischer Sicht zum Muster der Eingabe.

Du kannst der selben KI im Prinzip auch zweimal die exakt identische Frage stellen und bekommst beide Male eine (leicht oder komplett) andere Antwort.
 
Klappt bei mir 1a mit Copilot und co.

Bei mir hat die Copilot Python genutzt um das auszurechnen.
 
  • Gefällt mir
Reaktionen: N00bn00b
LLMs sind nicht deterministisch. Das sind halt Grundlagen, die man verinnerlichen sollte.

Wenn man determinismus erwartet, dann weist man das LLM an, ein Tool zu nutzen oder lässt sich den Code für ein Tool/Script vom LLM generieren und direkt ausführen.

Auch im beruflichen Umfeld nutze ich KI häufig, um mir irgendwelche Scripts oder Tools zur Automatisierung zu generieren, wenn ich reproduzierbare und verlässliche Ergebnisse möchte.

"Direkt" Frage ich die KI nur wenn ich rein Wissens- oder inhaltsbasiert arbeite. Wie z.B. "Zeig mir die wichtigen Mails der letzten 7 Tage" Oder Fasse mir diese Mail oder Spezifikation zusammen... usw.

Aber ich sag mal so: die KI hersteller wissen das natürlich und arbeiten ständig daran, solche usecases zu erkennen und entsprechend zu behandeln.
 
blende11 schrieb:
CoPilot kann es jedenfalls nicht!
Du kommst mir vor wie ein bockiges Kind. Dir wird hier allenhalben erklärt, warum das nicht zuverlässig funktioniert und Du kommst immer wieder mit "Ich will aber" und "muss doch gehen".
Diskutiere das mit Co-Pilot aus und verschwende hier nicht die Zeit anderer Leute.
 
  • Gefällt mir
Reaktionen: DNS81 und Col.Maybourne
typisches Layer 8 Problem hier... wie zu 99% aller LLM "Probleme"... aber keine Sorge ihr seit die ersten die abgelöst werden :)
 
  • Gefällt mir
Reaktionen: Azghul0815
Pyrukar schrieb:
LLMs sind wahrscheinlichkeitsrechner. Sie versuchen das wort für wort das wahrscheinlichste Wort zu raten ... da hat Mathematik keinen Platz.

Das stimmt nicht. Wahrscheinlichkeitsrechnung, wie der Name schon vermuten lässt, ist Mathematik. Du bist ja nicht am raten, was als nächstes kommt. Es wird berechnet.
 
Das Rechnen klappt bei mir auch wunderbar mit Copilot. Zumindest das genannten Beispiel hier im Thread.

Hat zwar 3-4 Sekunden gedauert (ein Taschenrechner mit einem Millionstel Bruchteil an Rechenleistung hätte es instant ausgespuckt), aber das Ergebnis war auf Anhieb richtig.

Und zum weiteren Einsatzzweck von KI kenne ich ein paar Leute, die lassen sich Tabellen mit Rechenbeispielen erstellen für ihre Arbeit. Egal ob ChatGPT, Gemini oder sonstwas....

Hab auch schon selbst eine Finanzierungsanfragen mit Zins-/Tilgungsplänen erstellen lassen. Die waren allesamt richtig.

Also ich denke mir auch, dass KI mit solch einer Rechenleistung solche "Basis Matheufgaben" korrekt erledigt bekommt. Alles andere wäre es nicht wert sowas "KI" zu nennen.
 
  • Gefällt mir
Reaktionen: DNS81 und N00bn00b
Wakasa schrieb:
Das stimmt nicht. Wahrscheinlichkeitsrechnung, wie der Name schon vermuten lässt, ist Mathematik. Du bist ja nicht am raten, was als nächstes kommt. Es wird berechnet.

Und das Raten ist das halluzinieren und das wollen wir ja der KI abgewöhnen deswegen bekommt sie den befehl nicht zu raten
Ergänzung ()

danyundsahne schrieb:
Das Rechnen klappt bei mir auch wunderbar mit Copilot.

Wenn die KI Checkt sie soll jetzt rechnen rechnet sie auch richtig
 
@blende11 darf man mal fragen, in welchem Modus du den Copilot stehen hast?
Ich nutze ihn tatsächlich auch öfters für die Arbeit oder um komplexe Total Cost of Ownership-Berechnungen überprüfen zu können und um mich zu kontrollieren, ob ich da ein Fehler gemacht habe oder nicht und ich habe bisher nur ein Fall erlebt, wo die Ergebnisse nicht stimmten - das lag aber an einem misinterpretierten Prompt.
Grundsätzlich steht Copilot bei mir auf "Smart" und ich kann bei seinen Berechnungen keine Fehler erkennen.

Ich habe aber bisher noch nicht irgendwie Eingaben von simplen Multiplikationsaufgaben probiert muss ich gestehen - für sowas nehm ich den Taschenrechner daher.

Aber wenn es um komplexere Berechnung über Dauer mit Abschreibungen usw angeht waren die Ergebnisse bisher immer akkurat.
 
Es geht hier doch nur mal wieder um einen rant. Ein konstruiertes Beispiel um sich über die KI zu erheben und sich besser zu fühlen. Menschlich verständlich, aber eine wenig hilfreiche Reaktion.
 
  • Gefällt mir
Reaktionen: TomH22, DNS81 und User38
Das meint Images 2.0 (https://openai.com/index/introducing-chatgpt-images-2-0/) dazu:

1776852864353.png
 
Zurück
Oben