News Nach Code-Zurückweisung: KI-Agent hetzt öffentlich gegen Open-Source-Entwickler

Ich hab einen Codex Agenten auf Performance kritischen oss Code losgelassen den wir im Labor benutzen.

Wir haben eine Testpipeline mit Qualitäts Kontrolle (Vorgabe nur patches die das Ergebnis nicht verändern aber die runtime reduzieren). Ergebnis: 20 % mehr Performance.

Ist aber natürlich KI generiert und wird deshalb niemals übernommen werden?
 
  • Gefällt mir
Reaktionen: Kuristina
Wie man sowas unkontrolliert auf die Menschheit loslassen kann, verstehe ich nicht.
Da wird doch Tür und Tor für jede Art von Missbrauch geradezu angeboten.
Das ist wie Waffen kostenlos an Kinder verteilen.

Quelle: https://de.wikipedia.org/wiki/OpenClaw#Funktionsweise

Screenshot 2026-02-16 071827.png
 
  • Gefällt mir
Reaktionen: Black Phoenix
Unser Gehirn arbeitet doch auch nur mit den Informationen, mit denen es gefüttert wurde. Auch kann es sich selbst "umschreiben" und oder von extern manipuliert werden. Der größte Unterschied ist m.E. der, dass wir das Gehirn nicht selbst erschaffen und auch noch nicht vollständig verstanden haben.

Darüber, was ein Bewusstsein oder eine Person ist, wird in Zukunft wohl noch viel diskutiert werden.

Angst vor der "KI" (Sammelbegriff) habe ich aber nicht. Eher vor gierigen Menschen, die "KI" für ihre Ziele einsetzten.
 
  • Gefällt mir
Reaktionen: sethdiabolos
@joel

Danke für den Einblick. Ich wollte schon beim 2. Absatz im 1. Satz aufhören zu lesen. Nur Interesse halber, aus Neugier und Arbeitsweise weiter gelesen. Unfassbar und der feuchte Traum von BigTech und Nerds mit zuviel Zeit und Rechenleistung im Hobbykeller. :skull_alt:

Danke
 
joel schrieb:
Da wird doch Tür und Tor für jede Art von Missbrauch geradezu angeboten.
Interessant ist es trotzdem. Es geht eben nicht mehr nur darum, Textbausteine für den Nutzer aneinanderzureihen. Das birgt natürlich Gefahren, aber auch neue Möglichkeiten.
 
  • Gefällt mir
Reaktionen: Black Phoenix
  • Gefällt mir
Reaktionen: Andy
Entweder ich habe etwas übersehen, oder die Artikel-Überschrift passt nicht. "KI-Agent hetzt öffentlich..." - das was da zitiert ist, ist doch keine "Hetze". Das ist im Gegenteil eine sehr sachlich formulierte Kritik, über deren Richtigkeit man sicher diskutieren kann, aber wo ist sowas bitte "Hetze"?

Genau das ist das Problem mit der breiteren politischen Diskussion um "Hass und Hetze". Es ist nicht nur nicht definiert, was genau das überhaupt sein soll, sondern selbst ganz normale Äußerungen werden mittlerweile wie selbstverständlich als "Hetze" identifiziert.
 
Black Phoenix schrieb:
Und immer wenn man denkt es geht nicht mehr schlimmer...
[...]

UPDATE: "OpenClaw" Quelle: Borncity
Ich sollte echt aufhören mit durchdachter, solider, sicherer Softwareentwicklung.
Vibecoding, KI und irgendwas mit Agenten und schon wird es was mit dem Haus am See....🙄
 
  • Gefällt mir
Reaktionen: Black Phoenix und Bademeister69
Auch eine Art von "Erwachen". Hach, sie werden so schnell erwachsen...
 
  • Gefällt mir
Reaktionen: Black Phoenix
Nihil Baxxter schrieb:
Unser Gehirn arbeitet doch auch nur mit den Informationen, mit denen es gefüttert wurde. Auch kann es sich selbst "umschreiben" und oder von extern manipuliert werden. Der größte Unterschied ist m.E. der, dass wir das Gehirn nicht selbst erschaffen und auch noch nicht vollständig verstanden haben.

Darüber, was ein Bewusstsein oder eine Person ist, wird in Zukunft wohl noch viel diskutiert werden.

Angst vor der "KI" (Sammelbegriff) habe ich aber nicht. Eher vor gierigen Menschen, die "KI" für ihre Ziele einsetzten.
Kurz gesagt liegt der größte Unterschied im Verständnis. Unser Gehirn kann Zusammenhänge "verstehen". Ein LLM ist nicht in der Lage dieses Verständnis aufzubauen.

In dem von mir verlinkten Buch wird diese Fähigkeit zum allgemeinen Verständnis beispielsweise für die Besiedlung des Mars vorausgesetzt. Roboter müssten in der Lage sein komplett eigenständig Strukturen auf dem Mars aufzubauen. Sie müssen verstehen was sie bauen, was das Big-Picture dahinter ist und kontinuierlich ihre Arbeit an die Bedingungen, die Probleme die Fehler anpassen.
Mit der heutigen Technologie wie LLMs funktionieren, ist das nicht möglich. Es braucht dafür ein Verständnis der Dinge.
Ein LLM kann sogesehen nicht denken. Es redet einfach nur mehr mit sich selbst und vergrößert somit den Kontext.
 
Noch einer andere Überlegung. Diese Generation muss wohl noch Wehrdienst leisten, also auch nur ein kleiner Teil. Aber in der Zukunft wird es Roboter Soldaten geben (gibt ja schon Anfänge davon in der Ukraine).
Kann mir schon vorstellen, wie es schon in Si-Fi Filmen zu sehen war, das es irgendwann nur noch Kriege mit Robotern geben wird.

@hardwärevreag Bitte beruhigen Sie sich. :)
 
Zuletzt bearbeitet:
Dark_Soul schrieb:
Mit der heutigen Technologie wie LLMs funktionieren, ist das nicht möglich. Es braucht dafür ein Verständnis der Dinge.
Dann arbeite mal mit Codex und wundere dich wie gut die darin sind probleme zu erkennen und Lösungen zu erarbeiten. Ich hab schon gui änderungen bekommen nach denen ich nie verlangt hab, die aber durchaus sinnvolle ergänzungen sind.

Die wirklich entscheidende Frage ist ab wann man solche fähigkeiten als intelligent ansieht. Wenn ein Hund drei Stofftiere unterscheiden kann gilt er als besonders intelligent.

Was die dinger natürlich nicht haben ist eine Seele und Würde. Aber für Intelligent würde ich die durchaus halten.
 
@Neronomicon Ach quark. Die feindlichen Soldaten werden die Amis oder Chinesen trotzdem wegmetzeln wollen. Und Genozide wird es auch geben. Aber diesmal gründlicher. Glaub mal nicht, dass es irgendeine Gnade geben wird.
 
Ned Flanders schrieb:
Dann arbeite mal mit Codex und wundere dich wie gut die darin sind probleme zu erkennen und Lösungen zu erarbeiten. Ich hab schon gui änderungen bekommen nach denen ich nie verlangt hab, die aber durchaus sinnvolle ergänzungen sind.

Die wirklich entscheidende Frage ist ab wann man solche fähigkeiten als intelligent ansieht. Wenn ein Hund drei Stofftiere unterscheiden kann gilt er als besonders intelligent.

Was die dinger natürlich nicht haben ist eine Seele und Würde. Aber für Intelligent würde ich die durchaus halten.
Ne das sind Welten. Du kannst von Intelligenz reden wenn die nicht nur programmieren können, sondern wenn sie quasi praktisch alles können, alles lernen können, alles verstehen können. Sie sind aber nur gut in sehr spezifischen Tätigkeiten auf die sie trainiert wurden, in denen sie Muster erkennen konnten.
 
  • Gefällt mir
Reaktionen: Sanjuro
Zurück
Oben