Ich weiß, der Zug ist abgefahren, aber man sollte halt mal von diesem "Buzz-Word" KI weg...
Chatgpt ist "nur" ein LLM, sprich es antwortet auf Fragen mit "wahrscheinlichen" Wörtern bzw. die in seinem Modell am häufigsten ausgewählt wurden für diese "Aneinanderreihung von Wörtern" (-> die Frage).
Was das Modell nicht "weiß" bzw. aus Trainingsdaten hat, kann es auch nicht richtig beantworten...
Womit wir gleich zum nächsten Punkt springen könnten: Wer entscheidet über die Trainingsdaten bzw. das jeweilige Modell antwortet eben nur anhand dessen, mit dem es zuvor gefüttert wurde.
Sagen die Trainingsdaten z.B. Person A ist der "beste,tollste,wirtschaftllich erfolgreichste etc." Präsident auf der Welt, dann wird das auch so entsprechend ausgegeben....Ergo, halten wir uns ans Phrasenschwein: Vertrauen ist gut, (Eigen-)Kontrolle ist besser
Chatgpt ist "nur" ein LLM, sprich es antwortet auf Fragen mit "wahrscheinlichen" Wörtern bzw. die in seinem Modell am häufigsten ausgewählt wurden für diese "Aneinanderreihung von Wörtern" (-> die Frage).
Was das Modell nicht "weiß" bzw. aus Trainingsdaten hat, kann es auch nicht richtig beantworten...
Womit wir gleich zum nächsten Punkt springen könnten: Wer entscheidet über die Trainingsdaten bzw. das jeweilige Modell antwortet eben nur anhand dessen, mit dem es zuvor gefüttert wurde.
Sagen die Trainingsdaten z.B. Person A ist der "beste,tollste,wirtschaftllich erfolgreichste etc." Präsident auf der Welt, dann wird das auch so entsprechend ausgegeben....Ergo, halten wir uns ans Phrasenschwein: Vertrauen ist gut, (Eigen-)Kontrolle ist besser