Lohnt es sich, Programmiersprachen zu lernen, wenn wir KI haben und immer besser wird?

LencoX2 schrieb:
Weil kein Automat für übliche
Problemstellungen der IT formal korrekte, terminierende Algorithmen berechnen kann. Das haben sehr intelligente Menschen vor Jahrzehnten formal bewiesen.

Daraus folgt, dass es auch in Zukunft Menschen machen werden.
Nenn mal bitte ein Problem, das aufgrund des Halteproblems Menschen lösen anstatt Algorithmen. Du sagst ja sogar noch mehr (übliche Problemstellungen), also vielleicht benennst du einfach mal so eine übliche Problemstellung?

PS.: Ich habe gerade mal kurz recherchiert, weil ich mit den philosophischen Aspekten des Themas nicht vertraut bin. Offenbar wissen wir nicht, ob für Menschen das Halteproblem gilt, also ob die von Menschen entscheidbaren Aussagen/Programme eine echte Übermenge der von Turing-Maschinen entscheidbaren Aussagen/Programme ist. Von daher hat noch niemand ein Problem überhaupt gefunden, das ein Algorithmus bedingt durch das Halteproblem nicht entscheiden kann, ein Mensch aber doch.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: kuddlmuddl und tollertyp
LencoX2 schrieb:
Grund:
Weil kein Automat für übliche
Problemstellungen der IT formal korrekte, terminierende Algorithmen berechnen kann. Das haben sehr intelligente Menschen vor Jahrzehnten formal bewiesen.
Du hast das Halteproblem falsch verstanden. Ich zitiere mal Wikipedia
Obwohl das für viele Algorithmen leicht beantwortet werden kann, konnte der Mathematiker Alan Turing beweisen, dass es keinen Algorithmus gibt, der diese Frage für alle möglichen Algorithmen und beliebige Eingaben beantwortet.
https://de.wikipedia.org/wiki/Halteproblem

Es geht nur um die Beweisbarkeit und auch nur darum, das es keine universelle Maschine gibt, die das für all möglichen Fälle kann.
Es hat aber in keinem Fall damit zu tun, das nicht eine Maschine korrekte und terminierende Algortíthmen generieren kann.
Darum geht andererseits hier auch gar nicht, denn die generativen Sprachmodelle wie ChatGPT entwerfen nicht wirklich Algorithmen, sondern sie setzen in natürlicher Sprache gegebene Problembechreibungen in Code um.

Dabei liefen sie in vielen Fällen sehr ähnlichen Output wie ein menschlicher Programmierer.
Wenn man sagt: "Schreibe eine Schleife die die Werte von 1 bis 10 auf dem Terminal ausgibt", wird ChatGPT, und die meisten menschlichen Programmierer ,mehr oder weniger dieselbe Lösung liefern. Die Laufvariable der Schleife wird in den meisten Fällen "i" heißen, denn Programmierer und ChatGPT haben dieses Muster gelernt.

Komplexerer Code wird auch von menschlichen Programmieren, immer durch wiederholte, ineinander verschachtelte und leicht variierter Anwendung erlernter Muster geschrieben. Und genau das macht die KI auch.

Programmierer entwickeln nur in sehr seltenen Fällen komplett neue Algorithmen (also etwa so etwas wie Quicksort oder den Dijkstra-Algorithmus)

Es mag für viele altgediente Programmierer eine ernüchternde Erkenntnis sein, aber gerade das die, eigentlich für natürliche Sprache entworfenen, Sprachmodelle im Coding quasi ihren Sweetspot gefunden haben, zeigt das Coding eben doch kein so großen Geheimnis ist.

Man muss aber auch klar sagen: Diese Modelle entwerfen keine Algorithmen
 
  • Gefällt mir
Reaktionen: Micke
Zurück
Oben