SheepShaver schrieb:
Am Ende zählt nur, ob es so funktioniert wie es soll.
Ja. Aber genau das tut es ja nicht.
Ich meine, wir haben jetzt ja diese LLMs schon eine Weile.
Und jetzt gucken wir mal auf eine Software wie beispielsweise den Chrome-Browser.
Ich unterstelle mal, Google hat jetzt als Entwickler nicht irgendwelche Stümper und setzt den KI-Krempel auch ein.
Trotzdem haben wir jede Woche mehrere Bugs in Chrome. Und das schon seit Jahren und ohne das sich auch abzeichnet, das das besser wird.
Und ein Bug ist per Definition "funktioniert nicht so wie es soll".
Ähnliches beobachten wir auch bei anderen großen Softwareherstellern.
Also von wegen funktioniert wie es soll.
Und ja. Das Problem hatten wir auch schon vorher.
Jetzt kommen aber noch Dinge hinzu, die uns jetzt noch nicht auf die Füße fallen aber künftig vielleicht.
Code produzieren ist billig geworden. Das heißt, wir werden mehr davon haben. Die wird möglicherweise auch im Schnitt qualitativ besser sein. Aber es ist erst mal sehr viel mehr.
Das heißt, darin ein Fehler zu finden wird schwieriger. Man darf ja nicht vergessen:
Die Anzahl der potentiellen Bugs steigt nicht linear mit der Quelltextgröße, sondern eher exponentiell.
Der zweite Punkt ist, das Quelltext lesen und verstehen können trainiert werden muss. Wenn das aber immer mehr wegfällt, weil sich alle auf die Automatik verlassen haben wir zwei Probleme:
Wir haben mehr und komplexeren Code bei gleichzeitigen Know-How-Verlust unter den Entwicklern.
Wenn also die Automatik an ihre Grenzen stößt, haben wir auch niemanden, der das reparieren kann.
Insofern finde ich diese eindimensionale Betrachtung a-la "Der Entwickler wird produktiver und was interessiert was hinten rausfällt, solange Tests und Compiler nicht meckern" ein bisschen kurz gedacht.