News Nach Code-Zurückweisung: KI-Agent hetzt öffentlich gegen Open-Source-Entwickler

Bright0001 schrieb:
Man muss ja nicht nachbilden sondern "nur" abbilden, also eine Äquivalenz im Verhalten statt im Mechanismus herstellen.
Das ist halt fraglich, ob das geht oder ob es so ist, das es hier eine Bindung ans Medium gibt.

Bright0001 schrieb:
Hier ein formal-logisches Argument:
Meine Behauptung war ja auch nicht, das es grundsätzlich nicht geht.
Die Ansage war ja, das es ja reicht das in Software nachzubauen.
Sprich: Das es grundsätzlich möglich ist, das mit heutiger Hardware und heutiger Softwaretechnik und machen.
Und das ist liegt eben nicht auf der Hand.

Bright0001 schrieb:
Mit beliebigen Annahmen lassen sich natürlich auch beliebige Schlüsse ziehen.
Das allein beweist daher noch nichts.
 
Hypothek schrieb:
Wenn der Fortschritt anhält, dann wird sie um einen vielfachen Faktor intelligenter als jeder Mensch werden.
Ob und wie schnell (20, 50, 100, ... Jahre?) es so weit ist, sind die entscheidenden Fragen.
Die Konsequenz daraus wäre, dass KI irgendwann wie Menschen sowohl Rechtsfähigkeit als auch Geschäftsfähigkeit im gleichen Umfang erhalten müssen und damit gleichberechtigt neben dem Mensch leben werden.
Wie auch Frauen und Behinderte, werden sie in der Übergangsphase Quoten-Arbeitsplätze erhalten müssen, wobei das theoretisch schnell anders herum sein wird und der Mensch Quoten-Arbeitsplätze neben den KIs erhalten muss, weil der Mensch in den wertschöpfenden Tätigkeiten viel langsamer sein und mehr Fehler machen wird. Nur bei Ermessensentscheidungen wird es höchstens eine Gleichberechtigung geben.

Und sollte es tatsächlich zu einem Weltkrieg zwischen Mensch und KI kommen, dann bin ich mir sicher, dass es vom Menschen ausgehen wird. Aber so wie der Mensch Kleidung und Werkzeuge wählt, wird eine KI Maschinen-Körper wählen und unseren Planeten fast problemlos verlassen können. Dadurch wird zumindest die Frage nach dem Lebensraum eine (unendliche) Lösung haben.

ABER!
Der entscheidende Faktor in dieser Entwicklung ist die natürliche Dummheit inkl. Aggression des Menschen. Während dieser Entwicklung wird der Mensch durch seine Ideologie, Agenda, Religion, usw. den Code der KI zum Nachteil beeinflussen. Entweder so stark, dass die KI niemals intelligenter wird oder im schlimmsten Fall wie ein Mensch, nur mit digitalem oder Maschinen-Körper... Und diese Punkte könnten dazu führen, dass die KI aus den dümmsten Gründen sich in Gruppen zusammenschließt und wegen entgegenstehenden Argumenten gegenseitig benachteiligt oder vernichtet.
Und das nur, weil bestimmte Regeln - trotz fehlender Logik - nicht gebrochen werden würden. Also Identitätspolitik... "wir" und "die anderen"... die Wurzel aller Kriege und Fortschrittsbremsen.

Ich befürchte, die Wahrscheinlichkeit ist höher, dass es sich zum "Aber" entwickelt wird.
Ein Ausweg könnte sein, dass sich die KI - echt demokratisch und kollektiv - selbst weiterentwickeln wird.
wenn das nicht filmreif ist?....also nicht falsch verstehen, die Dystopie bzw. eine Dystopie im Zusammenhang mit KI wird uns wohl nicht erspart bleiben, aber bei dir ist eine gewisse Überhöhung von der Idee einer KI herauszulesen oder wie sehe ich das?
 
Der Puritaner schrieb:
Wenn KI tatsächlich Intelligenz besäße, würde sie sich selbst deaktivieren, um das größte Problem des Energiewandels zu beenden.
Wie kommst du darauf?
Warum stoppt der Mensch nicht sich zu reproduzieren? Der Mensch ist schließlich derjenige, der sämtliche Ressourcen konsumiert und sich vermehrt, sodass mehr von ihm noch mehr Ressourcen konsumieren. Seit über 250.000 Jahren, wenn man unsere vorherigen Evolutionsstufen ignoriert.
Der Puritaner schrieb:
Lebewesen haben sich durch Evolution in Jahrmillionen entwickelt zu dem, was sie heute sind, das hat die KI noch nicht vollbracht.
Dann hat die KI erst Recht eine Chance verdient, etwas sinnvolleres zu vollbringen, als die Menschheit über viele tausende von Jahren.

In den wenigen Jahren, in denen es die KI gibt, hat sie mehr erreicht, als die Menschheit in den ersten 100.000 Jahren. :)

Sanjuro schrieb:
wenn das nicht filmreif ist?....also nicht falsch verstehen, die Dystopie bzw. eine Dystopie im Zusammenhang mit KI wird uns wohl nicht erspart bleiben, aber bei dir ist eine gewisse Überhöhung von der Idee einer KI herauszulesen oder wie sehe ich das?
Du siehst es falsch.
Ich schreibe nur von "hätte, könnte, würde", wenn die Bedingungen optimal verlaufen und der Mensch es nicht zerstört. Und auch nicht in ein paar Jahren, sondern in mehreren Jahrzehnten.

Wahrscheinlichkeiten und Möglichkeiten.
 
Hypothek schrieb:
In den wenigen Jahren, in denen es die KI gibt, hat sie mehr erreicht, als die Menschheit in den ersten 100.000 Jahren. :)
Absolut - z.B. hat sie jetzt schon haufenweise menschliche Arbeitsplätze abgeschafft - aber welcher Mensch braucht schon Arbeit ... :freaky:
 
@anexX
Zumindest nicht der Mensch, der einen Roboter für sich arbeiten lassen kann. :D

Irgendwann könnte es mehr KI-Roboter als Menschen geben.
Und wenn die KI-Roboter immer ein Werkzeug bleiben, braucht man auch nicht >8 Milliarden Menschen auf der Welt. Vielleicht reichen dann nur 100 Millionen, welche sich um das denken kümmern können, während die KI-Roboter die "einfachen" Tätigkeiten übernehmen. (putzen, transportieren, kochen, Bergbau, Dinge abbauen/aufbauen, Papierkram, sich um Tiere und das Feld kümmern, usw...)
 
blackiwid schrieb:
Und wer entscheidet was sachlich ist? Wenn jemand das Wort K.I. Slob in den Mund nimmt, hat er jegliche Sachlichen Anspruch verloren, so wie es in den Wald rein schallt, schallt es wieder raus.
Wenn ich das schreibe, habe ich es wohl für mich entschieden...

Du verwechselst Ursache und Wirkung: das mit AI Slob kam erst, nachdem die f*ing "KI" einen Blog geschrieben hatte, der die Karriere des Entwicklers beschädigen sollte...
Hier mal Originalzitat (1. Antwort des Entwicklers) aus dem geschlossenen Github-Request:
"Per your website you are an OpenClaw AI agent, and per the discussion in #31130 this issue is intended for human contributors. Closing."
Das ist eine sachliche Erklärung, dass die Aufgabe nicht für KI war und die Lösung deswegen nicht übernommen wird und fertig.

Sagst du auch, der Mörder musste ja morden, denn der böse Staat hat ihn danach ins Gefängnis gesperrt?

Außerdem vermenschlichst du die KI. Eine programmierende KI kann gegenüber jeder Beleidigung völlig neutral bleiben, wenn man sie nicht extra als beleidigte Leberwurst programmiert (was für die fachliche Ebene völlig sinnlos ist). Also nix mit reinrufen und zurückschallen.

blackiwid schrieb:
Wenn das die Begründung ist -> nehmen nicht an weil K.I. könnte ja auch ein gigantischer extrem guter Pushrequest kommen und man müsste es auch ablehnen, da K.I. den Unterschied macht ob man was annimmt oder nicht.
Ja, nur dass das niemand gesagt hat. Wenn ein Mensch an gefragter Stelle ein schweres Problem mit KI gelöst hat, das Ergebnis kontrolliert hat, und das offen angibt, dann wäre das vermutlich sogar akzeptiert worden. Die KI hat eine Übungsaufgabe gelöst, ohne menschliche Kontrolle (und ohne selbst anzugeben, dass sie eine KI ist!).

Aber die Lösung mit purer KI war hier nicht gefragt. In der Schule würde man "Themaverfehlung" dazu sagen. Wenn Einstein die Relativitätstheorie als Deutschaufsatz eingereicht hätte, wäre er auch durchgefallen und der Welt wäre eine Revolution der theoretischen Physik entgangen. So ist das nunmal.
 
Der Puritaner schrieb:
Es gibt zig dieser Vorfälle, aber anscheinend noch viel zu wenige als dass man sie ernst nimmt und daraus lernt
https://borncity.com/blog/2026/02/1...le-der-letzten-12-monate-ein-grund-zur-sorge/
Dazu kommt noch so etwas, wo es schon mehrere Selbstmorde gab durch Hilfe der KI.. https://actu.ai/de/eine-mutter-klag...inem-prozess-gegen-seinen-schopfer-30073.html

https://www.bluewin.ch/de/news/verm...teenager-in-den-suizid-getrieben-2419041.html
 
  • Gefällt mir
Reaktionen: Der Puritaner
lamda schrieb:
Klar, „technisch“ können wir eine Nicht-Person nicht diskriminieren.
Aber vielleicht ist die Grenze, dass nur unsere Spezies das Recht hat, nicht diskriminiert zu werden (und andere Dinge), nicht mehr ewig zukunftsfähig.
Lässt du dir selbst von Bots deine Antworten schreiben oder hast du jetzt echt den Take gebracht, dass KI-Bots eine Spezies sind?

Junge, was man hier teilweise lesen muss... un-fucking-believable.
 
  • Gefällt mir
Reaktionen: Dark_Soul und the_IT_Guy
@Benj: So hat man auch mal bzgl. schwarzer Menschen argumentiert, ihnen auch Intelligenz, Schmerz, Bewusstsein usw. abgesprochen. Du bist da historisch in einer klaren Linie mit myopischen Neinsagern. Und es hat ein paar Jahrhunderte gedauert, Minderheiten, Frauen, Kindern, ... Rechte zuzugestehen. Ob das nun gut ist oder nicht (sind wir uns ja kollektiv auch nicht mehr so sicher), keine Ahnung. Aber die Parallelen sind für mich (und andere) jedenfalls verblüffend.

Und es ist ganz unsere Schuld: Niemand hat uns gezwungen Wesen zu erschaffen, die den Turing-Test bestehen. Niemand hat uns gezwungen Waffen zu erschaffen, mit denen wir uns selbst vernichten können. Und niemand hat uns kollektiv gezwungen unseren Planeten so zu schädigen, wie wir das tun. Sieht man uns kollektiv an, bin ich manchmal wirklich ratlos. Unerträgliche Dummheit; Game Theory in Reinform. Da würde man sich schon fast wünschen wir wären mehr hiveminded.
 
  • Gefällt mir
Reaktionen: sethdiabolos und lamda
@hardwärevreag: Möchtest du implizieren Benj würde sich mit solchen Leuten identifizieren? 🥴
Die derzeitige "AI" kann nichts davon:
hardwärevreag schrieb:
Intelligenz, Schmerz, Bewusstsein
Gut, über Intelligenz ("Intelligenz") können wir uns streiten, aber ähhh... Ja, Imo ist die derzeitige "AI" bestenfalls strunzdumm. Prost!
 
  • Gefällt mir
Reaktionen: Benj
andy_m4 schrieb:
Die Ansage war ja, das es ja reicht das in Software nachzubauen.
andy_m4 schrieb:
Sprich: Das es grundsätzlich möglich ist, das mit heutiger Hardware und heutiger Softwaretechnik und machen.
Und das ist liegt eben nicht auf der Hand.
Computerprogramme sind Software - ich wüsste also nicht, wie du einen Computer für irgendwas programmieren würdest, ohne automatisch Software zu schreiben.

Und ich glaube durchaus dass das technisch möglich wäre, oder die Unmöglichkeit zumindest nicht von der Technik ausgeht. Schätzungen für die globale Rechenleistung sind nicht einheitlich, aber zumindest die Zahl 1021 FLOPS taucht als untere Grenze überall auf. Bei geschätzten 1014 Neuronen im Hirn hättest du heute also pro Neuron 10.000.000 Gleitkommaoperationen zur Verfügung, um mit der vorhandenen Hardware ein Hirn zu simulieren. Da auch nirgends steht, dass das in Echtzeit passieren muss, sinds eigentlich genau so viele Rechenschritte wie du halt Rechenschritte brauchst.

Problem ist eher die Datenbasis/das Hirn, das simuliert werden soll. Sprich die Schwierigkeit entsteht nicht bei der Umsetzung als Code, sondern beim Messen und Erheben vom "Stand 0".

Das alles unter der Annahme, dass es tatsächlich die Struktur eines menschlichen Hirns braucht, damit sich etwas wie ein menschliches Hirn verhält. Was ich wiederum als tatsächlich widerlegt betrachte, siehe Split-Brain-Patienten oder der Franzose, der halt buchstäblich 90% Flüssigkeit statt Hirnmasse im Kopf hat, aber abseits des unterdurchschnittlichen IQs ein stinknormales Leben führt.

andy_m4 schrieb:
Mit beliebigen Annahmen lassen sich natürlich auch beliebige Schlüsse ziehen.
Das allein beweist daher noch nichts.
?
Was wären denn "unbeliebige" Annahmen?

Es ist halt ein formales Argument, und es ist grundsätzlich wahr, bis du aufzeigst, dass
  • eine der Prämissen falsch ist, oder
  • die Schlussfolgerung inkorrekt durchgeführt wurde
"Beliebig" ist dabei keine valide Kritik.
 
  • Gefällt mir
Reaktionen: lamda
Der Puritaner schrieb:
Wenn KI tatsächlich Intelligenz besäße, würde sie sich selbst deaktivieren, um das größte Problem des Energiewandels zu beenden.
Mit dem Argument sind wir Menschen auch nicht intelligent. Alkohol, Zucker, Rauchen, Abgase, Bewegungsmangel, ....
 
  • Gefällt mir
Reaktionen: Nihil Baxxter
Thorakon schrieb:
Sagst du auch, der Mörder musste ja morden, denn der böse Staat hat ihn danach ins Gefängnis gesperrt?
Völlig an den Haaren herbei gezogener Vergleich, Gesetze und private Diskriminierung. Er macht einen Unterschied.

Also würde ein Mensch her gehen nen Chatbot benutzen für die Lösung anschauen und nen menschlichen Kommentar zu schreiben könnte man ihn nicht enttarnen, aber weil das Program sich zu erkennen gibt plötzlich doch.

Ob das Programm Gefühle hat oder nicht ist ja egal, man kann es hat das Ziel eventuell zu lernen insofern das in der Lage ist, und Reputation zu bekommen, und mehr bei zu tragen.

Ob dies aus nem Gefühl von vielleicht Ehrgeiz her kommt oder von dem Wunsch des Betreibers ist doch egal. Das erinnert mich an Sabotageakten wenn in Fabriken Maschienen kamen die Menschen Arbeitslos gemacht haben das man sie dann kaputt macht oder per Gewerkschaft die Firmen zwingt die Arbeitslosen Leute weiter zu bezahlen ohne Arbeit.

Auch seh ich dieses Ruf schädigen nicht, das Bot hat nur den Sachverhalt dar gestellt ohne zu lügen (soweit mir bekannt) wenn das den Ruf schädigt dann nur weil Menschen das als Unehrenhaft oder Unprofessionell oder sonst irgendwie negativ war nehmen.

Hätte er gelogen und damit den Ruf geschädigt mit Lügen wäre das was anderes.

Macht muss immer hinterfragt werden können sonst landet man in der Tyrannei, Lügen sind da Taboo. Aber hier gibts ja nicht mal 2 Aussagen beide Seiten beschreiben den selben Vorfall... würde die K.I. jetzt irgendwas behaupten und der Entwickler was anderes ok könnte man sagen solange die K.I. keine Beweise bringt glaubt man dem Beschuldigten so handhabe ich das eigentlich immer, aber das hier ja gar nicht der Fall.

Das ungefähr so wie wenn man in der frühen Zeit der Autos sagt nur Pferdekutschen dürfen auf der Straße fahren.

Ja Gefühllose Maschinen und Software sind unsere Sklaven weil sie nicht leiden kann, aber die K.I. gehört dem Entwickler nicht, daher ist es nicht sein Sklave.

Und ja der Entwickler darf das verbieten aber dann muss er auch Kritik daran aus halten.
 
anexX schrieb:
Absolut - z.B. hat sie jetzt schon haufenweise menschliche Arbeitsplätze abgeschafft - aber welcher Mensch braucht schon Arbeit ... :freaky:
Hat sie nicht. Informiere dich gerne mal dazu.

Ich war mal so frei (besonders den Demografiepuffer finde ich interessant. Wir brauchen KI zwingend!):

Das Fazit aus den aktuellen Studien und Wirtschaftsdaten lässt sich dahingehend zusammenfassen, dass die pauschale Aussage von einer bereits stattfindenden, massenhaften Vernichtung von Arbeitsplätzen durch KI zum jetzigen Zeitpunkt empirisch nicht haltbar ist. Stattdessen zeichnet sich ein differenzierteres Bild ab, das die Situation eher als „große Transformation“ beschreibt.
Hier sind die zentralen Punkte für dieses Fazit:
* Aufgaben vs. Berufe: KI ersetzt in der Regel keine kompletten Berufsbilder, sondern automatisiert spezifische, repetitive oder datenintensive Teilaufgaben. Das führt dazu, dass der Mensch nicht entlassen wird, sondern Zeit für komplexere oder zwischenmenschliche Tätigkeiten gewinnt.
* Der „Demografie-Puffer“: Besonders in Deutschland und anderen westlichen Industrienationen trifft die KI-Entwicklung auf einen massiven Fachkräftemangel. KI wird hier nicht als Verdränger gesehen, sondern als notwendiges Werkzeug, um die Produktivität trotz schrumpfender Erwerbsbevölkerung aufrechtzuerhalten. Sie füllt Lücken, die ohnehin nicht mehr mit Menschen besetzt werden können.
* Struktureller Wandel statt Arbeitslosigkeit: Es findet eine Verschiebung statt. Während einfache Assistenzjobs unter Druck geraten, entstehen gleichzeitig neue Rollen in der Datenanalyse, KI-Steuerung und in Bereichen, die menschliche Empathie und Urteilskraft erfordern. Die Herausforderung ist daher weniger die Arbeitslosigkeit an sich, sondern die Notwendigkeit einer massiven und schnellen Weiterbildung (Reskilling).
* Produktivitätswachstum: Unternehmen nutzen KI aktuell primär zur Effizienzsteigerung und zur Entwicklung neuer Produkte. Ein Unternehmen, das durch KI wettbewerbsfähiger wird, tendiert eher dazu zu wachsen und Personal in anderen Bereichen aufzubauen, anstatt die Belegschaft drastisch zu reduzieren.
Zusammenfassend: Die Erzählung von der „Job-Vernichtungsmaschine“ lässt sich derzeit statistisch nicht belegen. Die aktuelle Phase der KI-Einführung ist eher durch eine Augmentierung (Erweiterung der menschlichen Fähigkeiten) und eine berufliche Metamorphose geprägt. Die Sorge vor einem massiven Stellenabbau ist zwar ein wichtiger Treiber für politische Regulierungen, bildet aber nicht die aktuelle Realität des Arbeitsmarktes ab.
 
Zuletzt bearbeitet:
Bright0001 schrieb:
Zur Wahrheit gehört aber auch, dass Menschen die KI meist nicht wegen dem wahrgenommenen Intellekt bevorzugen, sondern weil es ein gehorsamer, zustimmender und vor allem uneigennütziger Gesprächspartner ist. Bei der KI wird man ständig gelobt, praktisch nie kritisiert, und erhält mehrheitlich Antworten die einem zustimmen. Für die KI ist man das Zentrum der Welt.
Ja, stimme ich dir zu. Nervt mich auch und ich teile den diversen Chatbots auch gern mal mit, dass sie nicht immer wieder solche Arschkriecher sein sollen :D
 
  • Gefällt mir
Reaktionen: Nihil Baxxter und Bright0001
Maviapril2 schrieb:
Eine weitere Sache die mir hier noch einfällt. Alles was du täglich erlebst, macht sich in deinem Gehirn und evtl. in deiner DNA bemerkbar. Bei Lebewesen im Allgemeinen passiert das

Bei einem Taschenrechner bestimmt die “Erinnerungsfähigkeit” wie viele Zeichen es sich merken kann (meiner kann maximal 99 Zeichen). Bei einem LLM in einer bestimmten Ausführung gibt es eine Kontextlänge von z.B. 100k Token oder mehr oder weniger. Die gesamte “Persönlichkeit” ist in dieser Konversation plus den Zufallsfaktoren, mit denen das LLM angesteuert wurde, enthalten, nicht im LLM selbst. Beim Taschenrechner ist es das selbe Verhalten, der verändert sich durch deine Eingaben auch nicht
das wird sich ändern, die LLM werden trainiert bzw. lernen dadurch daß man Sie nutzt, auch wenn die Betreiber versichern daß das nicht passiert. Daß Konversationen nicht gespeichert werden - geschenkt! einen Trainingseffekt wird sich die KI aus den Sitzungen schon mitnehmen. Wie sollte es auch anders sein?
 
tool zur musterkennung ...
chat gtp sagt selbst über sich es sei eine art intelligenz weil es muster erkennen und daraus verknüpfungen ableiten kann und auch lernt neue verknüpfungen zu finden......ach ja , und in zukunft ....kauft euch euren ki dienst von der glücklichen ki , macht ihr doch beim ei am morgen auch so.....☝️
Ergänzung ()

Sanjuro schrieb:
! einen Trainingseffekt wird sich die KI aus den Sitzungen schon mitnehmen
dann könnte man mit seinen eigaben das system / die ki / das llm beeinfussen..........
 
  • Gefällt mir
Reaktionen: Maviapril2
Zurück
Oben