Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Zwei Ausfälle in Amazons Cloud-Sparte AWS in den letzten Monaten sollen von internen KI-Entwicklertools ausgelöst worden sein, berichtet die Financial Times (via Golem). Intern bekräftigt das die Zweifel an den Coding-Assistenten.
Amazon erklärte auf Anfrage der Financial Times, in beiden Fällen habe es sich „um Fehler, nicht KI-Fehler“ gehandelt. Es sei Zufall gewesen, dass KI-Tools involviert waren. Menschliche Entwickler hätten diese Vorfälle ebenfalls verursachen können.
ich denke, ein menschlicher entwickler hätte vorher vll 2x überlegt, ob er eine umgebung einfach löscht und neu anlegt während die ki einfach macht... also mag sein, dass die KI wegen einem menschen zu viele rechte hatte.. aber trotzdem ist es ein ki-fehler...
Nach dem Dezember-Vorfall hat AWS daher weitere Sicherheitsvorgaben implementiert. Dazu zählen etwa verpflichtende Peer-Review-Verfahren und Mitarbeiterschulungen.
Am Ende muss der Mensch wieder den Großteil reviewen, den die Maschine produziert hat. Das stellt das Gesamtkonzept hinter KI, nämlich Manpower und damit Kosten zu sparen, infrage.
KI ist halt noch dämlich und erzeugt in >90% einfach schlechtere Arbeit als Menschen.
So einen Dreck zu erzwingen weil man sein schlechtes Investment nicht in Frage stellen will ist halt mal wieder typisch für blinde Manager.
Ein Lehrling macht auch Fehler, die dürfen aber nicht auffallen. Deshalb muss man dem Lehrling Arbeiten übertragen die er ordentlich ausführen kann und/ oder dabei überwachen.
Die KI ist nichts anderes.
Fraglich ist nicht der Einsatz der KI, sondern warum kein ordentliches System etabliert wird, dass solche großflächigen Fehler/ Ausfälle weitgehend eindämmt. Amazon ist ja dein Einzelfall wo so geschlampt wird und auf Kundenseite ein Millionenschaden und Unannehmlichkeiten durch verhinderbare Ausfälle entsteht.
Gerade mithilfe der KI sollte man doch günstig und schnell ordentliche Testumgebungen schaffen können, bevor man eine "Verbesserung" ausrollt und die Vorgänge danach wesentlich schneller bemerken und revidieren.
Aber bei der KI wird eben genausogespart wie bei normalen Arbeitnehmern, könnte man ja alles mit noch weniger Aufwand und Kosten realisieren............
Kommt auf die Menge an. Menschliche Arbeit wird an wichtigen Stellen ja auch nochmal überprüft. Es schmälert sicher den monetären Vorteil, aber dürfte es nicht egalisieren.
Natürlich erzählen sie uns das. Aber eine fehlerfreie KI wird es nie geben. Dazu muss ich kein Hellseher sein. KI lernen von Menschen, Menschen machen Fehler, also macht auch die KI Fehler. Beweis abgeschlossen.
Ich hab ja nichts dagegen, dass man versucht die Entwicklung mit KI zu automatisieren, aber dann soll man halt das Kind beim Namen nennen und nicht so rumschwurbeln.
Es sei Zufall gewesen, dass KI-Tools involviert waren. Menschliche Entwickler hätten diese Vorfälle ebenfalls verursachen können.
Generell habe man bislang noch keine Hinweise, dass es mit den Coding-Assistenten mehr Fehler gebe. [...] Dazu zählen etwa verpflichtende Peer-Review-Verfahren
Ist halt auch unklar, inwiefern das irgendwas rechtfertigt. Das klingt für mich eher nach einem Workaround, um eine freidrehende KI irgendwie im Zaum zu halten.
Klar ist das menschliches Versagen. Die Gier treibt große Unternehmen dazu, KI zu nutzen um Menschen zu ersetzen. Jemand traf diese Entscheidung. Ein Mensch, mehr oder weniger. Bin manchmal nicht sicher, ob CEOs wirklich in menschlichen Gefilden existieren. Der Fisch stinkt immer vom Kopf her...
Wenn der Lenkassistent im Auto das Lenkrad verreißt und einen Unfall baut, war das also auch kein technisches Versagen, weil der Fahrer hätte das ja auch machen können, oder?
LOL. Wenn man sich die aktuelle Güte des Codes anschaut. Dann braucht man länger um mit der KI zu diskutieren und den Code zu bereinigen, als es selber zu schreiben.
Ich nutze seit mehreren Monaten intensiv nur die größten Modelle für Code Generierung.
Im ersten Monat noch 20Millionen Tokens verschwendet. Danach ist es auf 10Millionen für die nächsten drei Monate gefallen. Letzter Monat nur noch 6Millionen und nun werden ich bei maximal 3Millionen landen.
Das sind auch nur die remote Modelle. Hinzu kommen noch die lokalen Modelle.
Mittlerweile ebbt es ab und ich schätze ich werde nur noch Code kontrollieren lassen, oder auch mal stupide Skripte schreiben lassen, die ich einfach kontrollieren kann. Und für Recherche ist es auch ganz gut, wobei sogar da Fehler und Halluzinationen bei API Zusammenfassungen auftauchen.
Aber ich würde es eher als Künstliche Dummheit als Künstliche Intelligenz.