News Amazon: KI-Coding-Bots verursachten AWS-Ausfälle

„Es waren Fehler, kein KI-Fehler“​


Amazon erklärte auf Anfrage der Financial Times, in beiden Fällen habe es sich „um Fehler, nicht KI-Fehler“ gehandelt. Es sei Zufall gewesen, dass KI-Tools involviert waren. Menschliche Entwickler hätten diese Vorfälle ebenfalls verursachen können.

Wie jetzt? Ja, oder Nein? Habe die gesoffen?
 
  • Gefällt mir
Reaktionen: CMDCake, Venora Valyria, Fritzler und 30 andere
Es gehört aber schon auch ein special kind of stupid dazu, KI direkt auf Prod deployen zu lassen... :freak:
 
  • Gefällt mir
Reaktionen: Teckler, Nerdpatrol, Shogter12 und 41 andere
ich denke, ein menschlicher entwickler hätte vorher vll 2x überlegt, ob er eine umgebung einfach löscht und neu anlegt während die ki einfach macht... ;) also mag sein, dass die KI wegen einem menschen zu viele rechte hatte.. aber trotzdem ist es ein ki-fehler...
 
  • Gefällt mir
Reaktionen: Venora Valyria, Hellsfoul, K0r4nd und 21 andere
Bei der Fehleranalyse gehe es also um die Zugriffsrechte, die Menschen erteilt haben und nicht um die autonom arbeitende KI.

So kommt dann Skynet an die Atomraketen? (scnr)
 
  • Gefällt mir
Reaktionen: Venora Valyria, Hellsfoul, Slim.Shady und 5 andere
He4db4nger schrieb:
ich denke, ein menschlicher entwickler hätte vorher vll 2x überlegt, ob er eine umgebung einfach löscht und neu anlegt während die ki einfach macht... ;)
Wenn er die Rechte dazu hat, könnte genauso eine Verwechslung dazu führen, dass er ausversehen Prod löscht.
 
  • Gefällt mir
Reaktionen: xmimox und stevefrogs
Es war also K E I N Fehler?
 
  • Gefällt mir
Reaktionen: Venora Valyria, Hellsfoul, Volvo480 und 4 andere
GRB221009A schrieb:
So kommt dann Skynet an die Atomraketen? (scnr)
Atomraketensilos müssen "dankenswerterweise" mit altmodischen Schlüsseln und Codekarten ausgelöst werden. So verrückt ist hoffentlich keiner.
 
  • Gefällt mir
Reaktionen: Venora Valyria, Slim.Shady, iron-man und eine weitere Person
Nach dem Dezember-Vorfall hat AWS daher weitere Sicherheitsvorgaben implementiert. Dazu zählen etwa verpflichtende Peer-Review-Verfahren und Mitarbeiterschulungen.
Am Ende muss der Mensch wieder den Großteil reviewen, den die Maschine produziert hat. Das stellt das Gesamtkonzept hinter KI, nämlich Manpower und damit Kosten zu sparen, infrage.
 
  • Gefällt mir
Reaktionen: Venora Valyria, jdiv, SteeL1942 und 6 andere
Eines der Ziele wird sein, dass genau das irgendwann nicht mehr nötig ist.
 
  • Gefällt mir
Reaktionen: TPD-Andy
  • Gefällt mir
Reaktionen: Venora Valyria, metoer, Slim.Shady und 3 andere
KI ist halt noch dämlich und erzeugt in >90% einfach schlechtere Arbeit als Menschen.
So einen Dreck zu erzwingen weil man sein schlechtes Investment nicht in Frage stellen will ist halt mal wieder typisch für blinde Manager.
 
  • Gefällt mir
Reaktionen: Venora Valyria, ThirdLife, Zensored und 3 andere
Ein Lehrling macht auch Fehler, die dürfen aber nicht auffallen. Deshalb muss man dem Lehrling Arbeiten übertragen die er ordentlich ausführen kann und/ oder dabei überwachen.
Die KI ist nichts anderes.

Fraglich ist nicht der Einsatz der KI, sondern warum kein ordentliches System etabliert wird, dass solche großflächigen Fehler/ Ausfälle weitgehend eindämmt. Amazon ist ja dein Einzelfall wo so geschlampt wird und auf Kundenseite ein Millionenschaden und Unannehmlichkeiten durch verhinderbare Ausfälle entsteht.

Gerade mithilfe der KI sollte man doch günstig und schnell ordentliche Testumgebungen schaffen können, bevor man eine "Verbesserung" ausrollt und die Vorgänge danach wesentlich schneller bemerken und revidieren.
Aber bei der KI wird eben genausogespart wie bei normalen Arbeitnehmern, könnte man ja alles mit noch weniger Aufwand und Kosten realisieren............
 
  • Gefällt mir
Reaktionen: Teckler, BlueBringer, Volvo480 und 2 andere
Simonsworld schrieb:
Am Ende muss der Mensch wieder den Großteil reviewen, den die Maschine produziert hat.
Kommt auf die Menge an. Menschliche Arbeit wird an wichtigen Stellen ja auch nochmal überprüft. Es schmälert sicher den monetären Vorteil, aber dürfte es nicht egalisieren.
 
Kuristina schrieb:
Eines der Ziele wird sein, dass genau das irgendwann nicht mehr nötig ist.
Natürlich erzählen sie uns das. Aber eine fehlerfreie KI wird es nie geben. Dazu muss ich kein Hellseher sein. KI lernen von Menschen, Menschen machen Fehler, also macht auch die KI Fehler. Beweis abgeschlossen.

Ich hab ja nichts dagegen, dass man versucht die Entwicklung mit KI zu automatisieren, aber dann soll man halt das Kind beim Namen nennen und nicht so rumschwurbeln.
Es sei Zufall gewesen, dass KI-Tools involviert waren. Menschliche Entwickler hätten diese Vorfälle ebenfalls verursachen können.
Hätte hätte Fahrradkette. Haben sie aber nicht.
Generell habe man bislang noch keine Hinweise, dass es mit den Coding-Assistenten mehr Fehler gebe. [...] Dazu zählen etwa verpflichtende Peer-Review-Verfahren
Ja natürlich nicht, wenn alles nochmal menschlich gereviewt wird und grober Unfug schon vorher ausgefiltert oder korrigiert wird.
Konkret bei Kiro AI sei etwa ein Problem gewesen, dass der Coding-Assistent zu weitreichende Berechtigungen hatte.
Ist halt auch unklar, inwiefern das irgendwas rechtfertigt. Das klingt für mich eher nach einem Workaround, um eine freidrehende KI irgendwie im Zaum zu halten.
 
  • Gefällt mir
Reaktionen: TPD-Andy, katamaran3060 und Axonteer
Klar ist das menschliches Versagen. Die Gier treibt große Unternehmen dazu, KI zu nutzen um Menschen zu ersetzen. Jemand traf diese Entscheidung. Ein Mensch, mehr oder weniger. Bin manchmal nicht sicher, ob CEOs wirklich in menschlichen Gefilden existieren. Der Fisch stinkt immer vom Kopf her...
 
  • Gefällt mir
Reaktionen: Venora Valyria, TPD-Andy und katamaran3060
@Andy
...von menschlichem Versagen.
 
  • Gefällt mir
Reaktionen: Motorrad
Das menschliche Versagen bestand darin, AI-Codeslop unkontrolliert ins Livesystem zu übernehmen.

Schön auch, dass das damit verteidigt wird, dass ein Mensch solch einen Fehler auch hätte machen Können. Kann man sich nicht ausdenken.

Wobei in Zukunft dann vermutlich die Ausrede genau anders herum daher kommen wird:
"Da können wir nichts für, das war die KI."
 
  • Gefällt mir
Reaktionen: Venora Valyria, LPCyber, Bademeister69 und eine weitere Person
Wenn der Lenkassistent im Auto das Lenkrad verreißt und einen Unfall baut, war das also auch kein technisches Versagen, weil der Fahrer hätte das ja auch machen können, oder?
 
  • Gefällt mir
Reaktionen: Venora Valyria, Blaze1987, Fritzler und 9 andere
LOL. Wenn man sich die aktuelle Güte des Codes anschaut. Dann braucht man länger um mit der KI zu diskutieren und den Code zu bereinigen, als es selber zu schreiben.
Ich nutze seit mehreren Monaten intensiv nur die größten Modelle für Code Generierung.
Im ersten Monat noch 20Millionen Tokens verschwendet. Danach ist es auf 10Millionen für die nächsten drei Monate gefallen. Letzter Monat nur noch 6Millionen und nun werden ich bei maximal 3Millionen landen.
Das sind auch nur die remote Modelle. Hinzu kommen noch die lokalen Modelle.
Mittlerweile ebbt es ab und ich schätze ich werde nur noch Code kontrollieren lassen, oder auch mal stupide Skripte schreiben lassen, die ich einfach kontrollieren kann. Und für Recherche ist es auch ganz gut, wobei sogar da Fehler und Halluzinationen bei API Zusammenfassungen auftauchen.

Aber ich würde es eher als Künstliche Dummheit als Künstliche Intelligenz.
 
  • Gefällt mir
Reaktionen: Venora Valyria, K0r4nd, BlueBringer und 2 andere
Zurück
Oben