Lernen mit ChatGPT: Fluch, Segen, oder Grauzone?

jb_alvarado schrieb:
Mich würden mal noch Beispiele interessieren. Bei welchen Problemstellungen hattet ihr gute Ergebnisse, und bei welchen schlechte?

ChatGPT scheint nicht in der Lage sein logische Schlüsse zu ziehen. Es kann sie lediglich irgendwo abschreiben oder zufällig richtig raten. Dementsprechend kann der Bot meiner Meinung nach in vielen Bereichen grundsätzlich keine zuverlässigen Ergebnisse liefert. Ein Beispiel:

Benutzer: Ein Logikrätsel für dich: Wenn Petra hinter Paul steht und Jan hinter Petra steht, wer steht dann zwischen Paul und Jan?

ChatGPT: Es gibt keine Person zwischen Paul und Jan, da Petra hinter Paul steht und Jan hinter Petra steht. Die Personen sind in der folgenden Reihenfolge angeordnet: Paul, Petra, Jan.

Als Übersetzungsprogramm von Deutsch nach Englisch und umgekehrt scheint der Bot auf den ersten Blick brauchbar zu sein.
 
  • Gefällt mir
Reaktionen: jb_alvarado
@Schwachkopp Danke für das Beispiel, damit konnte ich auch mal reinschnuppern.
Es schien mir abwegig, daß eine berechenbare Antwort für die KI ein Problem sein soll. Auf besagte Frage antwortet ChatGPT mir
Es steht niemand zwischen Paul und Jan, da sie sich in einer Linie befinden und nicht nebeneinander.
Berücksichtigt man seine Begründung und fragt:
Wenn Petra neben Paul steht und Jan neben Petra steht, wer steht dann zwischen Paul und Jan?
ChatGPT: Wenn Petra neben Paul steht und Jan neben Petra steht, steht Petra zwischen Paul und Jan.

Was m.M.n. bestätigt, daß die Engine grundsätzlich damit umgehen kann und nur noch nicht ausgelernt hat.
Danke für die ganze Diskussion, beeindruckende Technologie.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: jb_alvarado
Das ist eine gute Illustration einer Logiklücke. Andererseits darf man das Können und Potenzial solcher Modelle in allen möglichen Belangen nicht unterschätzen. Die Wellen, die momentan schlagen, kommen ja nicht von ungefähr.

Die Realität ist bereits heute die, dass ich mir für Schule und Studium Fachtexte zu allen möglichen Wissensbereichen generieren lassen kann, die spätestens nach etwas Umformulierung nicht mehr als generierte Texte erkennbar sind. Der Turing-Test ist längst nicht mehr anwendbar. Hochschulen zum Beispiel stellen sich mitunter schon die Frage, ob sie Hausarbeiten (zumindest in den ersten Semestern) überhaupt noch als authentische Prüfungsleistung anerkennen können.

Parallel stellt man fest, dass sich Modelle wie ChatGPT allmählich auch "abstrakte" Sprachen wie Programmiercodes erschließen. Wir sind nicht mehr weit davon entfernt, dass KI selbstständig Konflikte erkennen und lösen kann, so lange es sich um konventionelle Codes und Anwendungen handelt, die in den üblichen Datensätzen zur Genüge repräsentiert sind.

Fragt sich, wo wir "two papers down the line" stehen werden.
 
Zurück
Oben