CoPilot kann nicht rechnen

|Moppel| schrieb:
Nein, das Gegenteil ist der Fall.

https://www.srf.ch/news/internation...schlechterstereotype-rassismus-und-homophobie

Diese theoretisch innewohnende Neutralität kann nicht erreicht werden, weil das trainingsmaterial immer menschengemacht ist.

Das habe ich auch geschrieben, falls du alles gelesen hast. 😉

Die eingesetzte KI ist ein Spiegelbild der Menschen und jede Abweichung der Realität wird korrigiert, damit es die politisch korrekte Ideologie oder Agenda verbreitet.

Beispiele aus deinen Link:
  • "Rassismus, Homophobie und auch Geschlechter-Stereotype" = Alle Stereotype basieren auf Beobachtungen - innerhalb der eigenen Bubble - und daher auf Fakten aus einem stark extrahierten Pool. Je mehr Beobachtungen aus verschiedenen Quellen hinzukommen, desto stärker normalisieren sich die Fakten. Eine Tendenz wird es aber absolut immer geben, weil nichts auf der Welt absolut ausgeglichen ist.
  • "rassistische Klischees und homophobe Inhalte" = Die gab und gibt es auch ohne KI, aber im Gegensatz zur KI, verstellt sich der Mensch und gibt in den meisten Situationen nur die politisch korrekte Antwort wieder, die von der Gesellschaft erwartet wird. Auch das erkennt man, wenn man abseits der eigenen Bubble die Welt betrachtet, besonders wo solche Menschen buchstäblich bestraft, misshandelt oder getötet werden. In Köln / Deutschland wirst du bei 10.000 Befragungen ein völlig anderes Ergebnis erhalten als im Iran oder Saudi-Arabien...
  • "Demnach würden beispielsweise Frauen viermal häufiger mit Hausarbeit in Verbindung gebracht als Männer." = Das ist ein Fakt! Setzt man die Scheuklappen ab und betrachtet die ganze Welt und nicht nur die eigene kleine Bubble, erkennt man dies auch.
  • "Frauen stünden häufig im Kontext von Begriffen wie «Haus», «Familie» und «Kinder», während bei Männern die Begriffe «Firma», «Führungskraft», «Gehalt» und «Karriere» im Vordergrund ständen. " - Auch das basiert auf puren Fakten. In Afghanistan dürfen Mädchen / Frauen ab der sechsten Klasse nicht mal in die Schule und müssen sich um das Haus, Familie, Kinder, etc. kümmern, während die Männer arbeiten. Und in mehreren anderen Ländern haben die Frauen ebenso weniger Rechte und machen genau das!

Auch eine chinesische KI wird genauso wie chinesische Menschen andere Antworten als eine US-KI und US-Bürger wiedergeben.

Deshalb habe ich auch geschrieben, dass die KI im Grunde so neutral ist, dass die Menschen aus Angst sich ihre Wahrheit entsprechend so hinbiegen, wie sie es gerne hätten. Doch wenn man sich regional selbst belügt und alle und alles (inkl. KI) dazu zwingt, die Lüge zu wiederholen, wird die Lüge trotzdem nicht zur Wahrheit.
 
Zweite Sonja schrieb:
Das habe ich auch geschrieben, falls du alles gelesen hast. 😉

Ich habe alles gelesen. Ist für mich nicht komplett rüber gekommen was du mit "im Grunde" meinst.

Aber du hast es ja jetzt sehr ausführlich dargelegt.

Weiß nicht ob man direkt Lesefaulheit unterstellen muss. :/
 
  • Gefällt mir
Reaktionen: Zweite Sonja
@|Moppel|
Ich würde Menschlichkeit unterstellen, weil jeder irgendwann, irgendwas, überließt, fehlinterpretiert oder einfach nur vergisst. Oder in meinem Fall vielleicht zu ungenau schreibt. 😘
 
  • Gefällt mir
Reaktionen: |Moppel|
|Moppel| schrieb:
Clever.

Was ist der Unterschied zwischen erfinden und hinzuerfinden.

Und finden?

;)

Wenn es so einfach wäre.

Machs doch einfach mal... bei mir sind alle modelle eingestellt das sie mir in % angeben wie sehr die Antwort stimmt, wo sie keine daten hat listet sie dir auch auf.

Es kann so einfach sein wenn man damit umgehen kann
 
Syntax_41 schrieb:
bei mir sind alle modelle eingestellt

Ja gut, aber das ist ja nicht die Ausgangslage über die wir sprechen.

Im gleichen Atemzug hast du ja gesagt, er kann die KI nicht bedienen.
Jetzt kommst du mit einer komplett selbst aufgesetzten KI um die Ecke.

Das klingt natürlich erstmal so, als ob du jeder beliebigen kommerziellen KI diese Richtlinie als Nutzer mal eben beibringen kannst.
 
  • Gefällt mir
Reaktionen: Schwachkopp
blende11 schrieb:
Da frage ich mich dann schon, wieviel Vertrauen man einer KI auch in Bezug auf Berechnungen anvertrauen kann, wenn sie nicht korrekt rechnet.
Ein Bohrer wird auch nicht als Hammer genutzt, obwohl beide Löcher machen
 
  • Gefällt mir
Reaktionen: Azghul0815
|Moppel| schrieb:
Ja gut, aber das ist ja nicht die Ausgangslage über die wir sprechen.

Im gleichen Atemzug hast du ja gesagt, er kann die KI nicht bedienen.
Jetzt kommst du mit einer komplett selbst aufgesetzten KI um die Ecke.

Das klingt natürlich erstmal so, als ob du jeder beliebigen kommerziellen KI diese Richtlinie als Nutzer mal eben beibringen kannst.

Sowohl als auch kannst du machen, und ja zb Gemini und ChatGPT kannst du es in den Einstellungen
 
Im Grunde eine überflüssige Debatte, sofern es generell um die mathematischen Fähigkeiten der KI geht. Da der TE sich aber explizit auf den Microsoft Copilot bezieht, sollte man nicht allzu streng rezensieren. Grundsätzlich ist KI tauglich für Mathematik, wie sie an Hochchulen und Universitäten gelehrt wird bis hin auf PhD-Level. KI ist ohne Probleme in der Lage, Klausuraufgaben im Master-Studium Mathematik oder Physik korrekt einschließlich umfangreicher Erklärungen zu lösen. Schaut euch ein paar Demos auf YT an, insbesondere auf dem Channel @easy_riders. Da gibts exzellente Beispiele, wie KI Agenten mit Mathematik umgehen.
 
Syntax_41 schrieb:
Ihr sagen sie soll nichts hinzuerfinden, bzw in den richtlinien als regel definieren
Würde mich wundern wenn CoPilot das befolgt. ChatGPT macht es auch nicht. Dabei ist vom Code her ziemlich klar wann das passiert, teilweise kannst du das beim Chatbot sogar an der Reaktionszeit sehen. Aber das öffentlich zu kommunizieren und anbieten zu trennen würde bloß stellen wie extrem ineffektiv die Algorithmen arbeiten, ohne entsprechenden Promt, der alles ins Detail vorkauen muss.
 
Was ist überhaupt mit der Diskrepanz im Ergebnis? Läßt sich da was ableiten? 600 ist doch eigenlich ne "komische" Zahl.
 
Zurück
Oben