Rickmer schrieb:
Ich würde dem noch nicht zutrauen, für wirklich komplexe Themen ordentliche Übungsaufgaben zu stellen und dann auch kontrollieren zu können ob die Antworten richtig sind.
Wenn ich überlege, was ich für die Strömungsmechanik Klausur gepaukt hatte... ohne den Musterlösungsweg im Übungsbuch um meinen eigenen Versuch zu überprüfen wäre ich definitiv durchgefallen.
Man betreut ChatGPT auch nicht mit der Aufgabe, sondern bezieht es in die Entwicklung mit ein.
Es geht nicht darum, den richtigen Prompt zu finden, damit es dir das perfekte Endergebnis präsentiert.
Es geht viel eher darum, die richtigen Aufgaben mit den richtigen Prompts an ChatGPT zu delegieren.
Wer damit sinnvoll und effektiv arbeiten will ist selbst schon auch gefordert, sich die Stärken zu Nutze zu machen und die Schwächen zu umgehen.
ChatGPT weiß extrem viel und kann auch je nach Themengebiet komplexere Zusammenhänge richtig interpretieren. Was es aber nicht kann ist fehler zu vermeiden. Vor allem wenn die Lösung mehrere Schritte beinhaltet ist das Fehlerpotenzial wahnsinnig hoch. Deswegen muss man es als Werkzeug einsetzen und nicht als vollautomatisierung.
Stell dir vor du wechselst reifen an nem Auto.
Wenn du das mit nem Werkzeug machst, wird das immer klappen.
Wenn du das mit dem Akkuschrauber machst, wird das meistens klappen, solange der Akku nicht leer ist.
Wenn du einen Reifen von nem Industrieroboter wechseln lässt wird das zwar funktionieren, aber es braucht sehr viele Testdurchläufe und es darf keine Abweichungen geben.
Wenn du alle Reifen von Verschiedenen Fahrzeugen von einem Idustrieroboter wechseln lässt braucht es noch viel mehr Tests und Anpassungen und jedes neue Fahrzeug und jede neue Felge wäre neues Fehlerpotenzial.
Da sieht man schön, wie sich das Fehlerpotenzial mit jedem Schritt der Automatisierung erhöht oder sogar exponenziell steigert. Wer LLMs nutzt muss das genauso berücksichtigen.
Chat GPT kann extrem leistungsfähig sein, man darf aber keine Allgemeinlösung für ein Problem erwarten. Denn dafür muss es idr. zu viel interpretieren und abstrahieren. Das wird immer besser, keine Frage, aber momentan kommt es eben schnell an Grenzen und viele Anwender sind sich dessen wahrscheinlich auch nicht bewusst. Oft würde es reichen eine Aufgabe anders anzugehen und aufzuteilen und man würde viel bessere Ergebnisse bekommen.