Leserartikel Der KI-Parasit: Warum Open Source vor einem gefährlichen Umbruch steht

kim88

Commander Pro
✍️Leserartikel-Schreiber
Registriert
Sep. 2016
Beiträge
2.324
Wer heute Software entwickelt oder sein System optimiert, kommt an Künstlicher Intelligenz (KI) kaum noch vorbei. Ein kurzer Befehl im Chat oder eine automatische Ergänzung im Editor, und schon steht das fertige Skript. Doch was sich für uns nach purer Effizienz anfühlt, löst im Hintergrund eine existenzielle Krise für jene Menschen aus, die diese Werkzeuge ursprünglich erschaffen haben. Ein aktuelles Beispiel zeigt uns gerade, dass das gesamte Open-Source-Ökosystem – also auch die Basis unserer geliebten Linux-Systeme – vor einem riesigen Problem steht.

Das Beispiel Tailwind: Wenn Erfolg zum Verhängnis wird​

Um das Problem zu verstehen, schauen wir uns ein Projekt namens Tailwind CSS an. Für alle, die nicht im Web-Design zu Hause sind: Tailwind ist ein riesiger, kostenloser Baukasten, mit dem man Webseiten wie mit Lego-Steinen gestaltet. Es ist extrem erfolgreich und wird weltweit genutzt. Damit das Team dahinter die Entwicklung in Vollzeit vorantreiben kann, haben sie handgefertigte Design-Vorlagen verkauft. Wer als Entwickler Zeit sparen wollte, kaufte diese Vorlagen und finanzierte so das kostenlose Grundprojekt mit.

Nun ist jedoch bedenkliches passiert: Das Team hinter Tailwind musste Personal entlassen - und zwar massiv 75% der Entwickler:innen bei Tailwind wurden entlassen. Der Grund? Der Umsatz ist wegen KI-Tools um 80% eingebrochen.

Im Zeitalter der KI hat sich das Spiel gedreht. Die KI-Modelle wurden mit Millionen Zeilen von Tailwind-Code trainiert. Heute tippt man einen einfachen Satz wie: "Erstelle mir ein Dashboard-Layout mit Tailwind", und die KI liefert das Ergebnis in Sekunden. Kostenlos. Die Bequemlichkeit der KI zerstört die einzige Einnahmequelle, die ein hochprofessionelles freies Projekt am Leben hielt. Die KI nutzt die kollektive Intelligenz der Community als kostenlose Tankstelle, während die Tankstellenpächter:innen vor dem Ruin stehen.

Vom Entwickler:in zum KI-Agent-Manager​

Dieses Phänomen ist kein Einzelfall, sondern beschreibt einen fundamentalen Wandel unserer Arbeitsweise. Ich merke es bei mir selbst: Tools wie Claude Code, GitHub Copilot und Gemini gehören heute fest zu meinem Alltag. Die Realität ist, dass ich mich heute oft mehr wie ein Manager von KI-Agenten fühle als wie ein klassischer Entwickler. Ich schreibe nicht mehr jede Zeile selbst. Ich delegiere Aufgaben an die KI, prüfe die Ergebnisse und füge sie zusammen.

In der Community gibt es oft eine lautstarke Fraktion von KI-Kritiker:innen. Sie verweisen zu Recht auf Datenschutzbedenken oder den Diebstahl geistigen Eigentums beim Training der Modelle. Microsoft wird oft als Paradebeispiel für diese Entwicklung angefeindet, besonders wenn sie über ihre Tochterplattform GitHub berichten, wie rasant die KI-Nutzung zunimmt. Wer ehrlich zu sich selbst ist, erkennt: Die Effizienzsteigerung ist real. Laut offiziellen Daten von GitHub werden bei Entwickler:innen, die Copilot aktiv nutzen, bereits rund 46 % des Codes von der KI geschrieben – eine Zahl, die laut GitHub-CEO Thomas Dohmke rapide auf die 50-Prozent-Marke zusteuert.

Man mag über diesen Konzern-Hype spotten, doch wir produzieren Code heute in einer Geschwindigkeit, die vor wenigen Jahren undenkbar war. Aber wir tun dies auf dem Rücken von Open-Source-Projekten, deren Wissen wir "absaugen", ohne dass ein Rappen zurückfliesst. Wir managen die KI-Agenten, während die eigentlichen Urheber:innen der Logik, die diese Agenten füttert, leer ausgehen.

Die Illusion des ewigen Ehrenamts: Wenn KIs die ökonomische Basis zersetzen​

Innerhalb der OpenSource-Welt pflegen wir oft die romantische Vorstellung, dass Open Source von einer Armee von Idealist:innen in ihrer Freizeit gestemmt wird. Doch die Software, die wir täglich nutzen, ist heute hochgradig professionalisiert und muss mit den Milliarden-Budgets von Konzernen wie Google, Microsoft oder Apple mithalten. Ein moderner Browser oder eine Office-Suite besteht aus Millionen Zeilen Code, deren Wartung Millionen von Franken kostet. KI droht nun, genau die Nischen und Einnahmequellen zu besetzen, die diese Projekte bisher am Leben erhalten haben.

Nehmen wir das Beispiel Firefox. Die Mozilla Foundation finanziert sich zu einem Grossteil über Suchmaschinen-Partnerschaften. Jedes Mal, wenn wir die Standard-Suche nutzen, fliesst ein kleiner Betrag zurück in die Entwicklung des Browsers. Doch der Trend geht weg von der klassischen Suche hin zum "Answer Engine" - Unter Jugendlichen sind Leute die noch "Google" verwenden das neue Beispiel für "altmodische Menschen" - ChatGPT ist dort längst Alltag für alle möglichen anfragen die man früher in Suchmaschinen eingegeben hat.

Wenn Nutzer:innen ihre Fragen direkt einem KI-Bot stellen, statt eine Webseite aufzurufen, bricht dieses Modell in sich zusammen. Ohne die Milliarden von Suchanfragen schwindet die Verhandlungsmacht von Mozilla gegenüber Giganten wie Google. Das Ergebnis wäre fatal: Ein Internet, in dem es keine unabhängige Engine mehr gibt, sondern nur noch das, was die KI-Konzerne uns vorsetzen.

Bei Projekten wie LibreOffice oder den grossen Desktop-Umgebungen wie GNOME und KDE sieht die Gefahr anders aus, ist aber nicht minder real. Diese Projekte finanzieren sich oft durch ein Ökosystem aus Dienstleistungen. Unternehmen zahlen für zertifizierten Support, massgeschneiderte Anpassungen oder spezialisierte Schulungen. Hier greift die KI nun direkt in das Expertenwissen ein. Wenn eine KI in der Lage ist, hochkomplexe LibreOffice-Makros zu schreiben, komplexe Konfigurationsfehler im Desktop-System in Sekunden zu diagnostizieren oder individuelle Workflows zu automatisieren, schwindet der finanzielle Anreiz für Firmen, Support-Verträge abzuschliessen.

Das Problem dabei: Die KI liefert zwar die Lösung, trägt aber keinen Rappen zur Instandhaltung des Codes bei, auf dem diese Lösung basiert. Wir beobachten hier eine Form von digitalem Raubbau. Wir entziehen den Projekten die Expert:innen-Honorare, die bisher die Vollzeit-Entwickler:innen und die so wichtigen Sicherheitsaudits querfinanziert haben. Wenn das Wissen der Community in einer Blackbox landet, die zwar Antworten gibt, aber keine Rechnungen für die zugrunde liegende Entwicklung bezahlt, stirbt die Innovation an der Basis. Am Ende stünden wir vor einer Welt, in der die Software zwar noch "offen" ist, aber niemand mehr da ist, der die kritischen Lücken schliesst oder neue Funktionen implementiert, weil das Geld für die Profis schlicht fehlt.

Wie finanzieren wir die Zukunft? Eine Suche nach neuen Wegen​

Wir stehen vor der grossen Frage: Wie sieht ein nachhaltiges Modell für Open Source im KI-Zeitalter aus? Die offensichtlichste Idee wäre eine verpflichtende Ausgleichszahlung der KI-Giganten an Open-Source-Stiftungen. Es klingt nur fair: Wer seine Modelle mit dem Wissen der Community trainiert, sollte einen Teil des Gewinns zurückgeben. Doch hier stossen wir auf die bittere wirtschaftliche Realität der Gegenwart.

Die grossen Player wie OpenAI, Anthropic oder Perplexity sind trotz ihrer Milliardenbewertungen bisher gigantische Geldvernichtungsmaschinen. Sie verbrennen jeden Tag Millionen für Rechenleistung und Training, ohne unterm Strich schwarze Zahlen zu schreiben. Es ist kaum realistisch zu glauben, dass Unternehmen, die selbst am Tropf von Risikokapitalgeber:innen hängen, die weltweite Open-Source-Entwicklung nachhaltig finanzieren können. Wir können nicht auf Almosen von Firmen warten, die selbst noch kein tragfähiges Geschäftsmodell gefunden haben. Wir müssen daher viel breiter und radikaler denken.

1. Compute-Sharing statt Cash​

Wenn die Firmen kein Bargeld haben, haben sie doch eines im Überfluss: Rechenleistung. Ein neues Modell könnte "Compute-Sharing" sein. KI-Anbieter könnten verpflichtet werden, einen Teil ihrer gewaltigen GPU-Cluster für Open-Source-Projekte zur Verfügung zu stellen. Damit könnten Stiftungen eigene, spezialisierte Modelle trainieren oder komplexe Sicherheitsanalysen automatisieren, für die ihnen heute schlicht die Hardware fehlt. Rechenpower ist die Währung der Zukunft und Open Source braucht einen fairen Wechselkurs.

2. Die Rückkehr der restriktiven Lizenzen​

Lange Zeit galt die extrem liberale MIT-Lizenz als Goldstandard, weil sie kaum Einschränkungen macht. Doch im KI-Zeitalter könnte das Pendel zurückschlagen. Wir brauchen Lizenzen, die eine klare Trennung ziehen: Frei für die menschliche Nutzung und die klassische Community-Arbeit, aber kostenpflichtig oder zustimmungspflichtig für das automatisierte Training durch kommerzielle KIs. Das "Dual-Licensing"-Modell, wie wir es von Datenbanken wie MySQL kennen, könnte eine Renaissance erleben, angepasst auf die Bedürfnisse von LLMs.

MySQL nutzt traditionell die GPL (General Public License): Wer die Software für eigene Open-Source-Projekte nutzt, zahlt nichts. Wer MySQL jedoch in ein geschlossenes, kommerzielles Produkt einbauen will, ohne seinen eigenen Code offenzulegen, muss eine kommerzielle Lizenz kaufen.

Auf die KI-Welt übertragen hiesse das: Ein LLM darf den Code zwar lesen und für Menschen indexieren, aber sobald die KI den Code nutzt, um daraus kommerziellen Profit zu schlagen oder Produkte für Dritte zu generieren, wird eine Lizenzgebühr fällig.

3. Digitale Infrastruktur als staatliche Aufgabe​

Vielleicht müssen wir Software endlich als das begreifen, was sie ist: eine kritische Infrastruktur. Wir akzeptieren, dass der Staat Strassen, Brücken und das Schienennetz finanziert, weil die Gesellschaft darauf angewiesen ist. Warum gilt das nicht für den Code, auf dem unsere gesamte digitale Verwaltung und Wirtschaft basiert? Eine staatliche Förderung von Open-Source-Stiftungen, finanziert durch eine Digitalsteuer für Grosskonzerne, könnte die Unabhängigkeit sichern, die der Markt allein nicht mehr garantieren kann.

4. Proof of Human Contribution​

Ein weiterer, eher technischer Ansatz wäre die Einführung von Mechanismen, die den Wert menschlicher Arbeit im Code verifizieren. Wenn eine Firma nachweisen will, dass ihre Software sicher und "handgefertigt" ist (ähnlich wie Bio-Produkte in der Landwirtschaft), könnte dies über Zertifizierungen laufen, die wiederum Gebühren an die zugrunde liegenden Open-Source-Projekte abführen.

Eines ist klar: Die Zeit der Freiwilligkeit stösst an ihre Grenzen. Wir brauchen ein System, das den Wert der Quelle schützt, bevor die KI sie endgültig leergesaugt hat.

Mein persönliches Fazit: Ein Liebesbrief mit Warnhinweis​

Ich will ehrlich sein: Ich liebe diese neue Welt. Als IT-Nerd und Web-Entwickler geniesse ich es jeden Tag, mit KI-Agenten zu arbeiten. Für mich gibt es kein Zurück mehr in eine Zeit, in der ich jede Zeile Boilerplate-Code mühsam von Hand getippt habe. Tools wie Claude, Copilot und Gemini haben meine Arbeitsweise fundamental verändert. Ich bin heute eher ein Architekt und Manager von Logik als ein blosser Code-Schreiber. Die Effizienz und die kreativen Möglichkeiten, die uns diese Werkzeuge bieten, sind schlichtweg atemberaubend. Ich möchte und werde nicht mehr ohne sie arbeiten.

Doch genau aus dieser Liebe zur Technologie entspringt meine Sorge. Wir dürfen nicht so naiv sein zu glauben, dass dieser Fortschritt umsonst ist. Wenn wir die KI als reine Abkürzung nutzen, ohne uns um die Quellen zu kümmern, aus denen sie speist, sägen wir an dem Ast, auf dem wir alle sitzen. Open Source ist das Fundament, auf dem die gesamte moderne IT-Welt und auch jede KI aufgebaut wurde. Wenn Projekte wie Tailwind CSS aufgrund ihrer eigenen Popularität finanziell kollabieren, dann ist das ein Systemfehler, den wir nicht ignorieren dürfen.

Wir stehen an einem Punkt, an dem wir Verantwortung übernehmen müssen. Wir können die Bequemlichkeit der KI geniessen, müssen aber gleichzeitig lautstark neue Wege der Finanzierung einfordern. Es darf nicht sein, dass wir als Community die Arbeit leisten und einige wenige KI-Giganten den gesamten wirtschaftlichen Nutzen abschöpfen, während die Original-Projekte Personal entlassen müssen.

Mein Appell an uns alle: Nutzt die KI, seid produktiv, seid Nerds, aber bleibt kritisch. Unterstützt eure Lieblingsprojekte, sei es durch Sponsoring, Beiträge oder indem ihr Druck auf die grossen Player ausübt oder eure Politiker in die Pflicht nehmt. Wir müssen sicherstellen, dass die "Intelligenz" der Maschinen nicht zum Grabgräber der menschlichen Zusammenarbeit wird. Denn am Ende ist die KI nur so gut wie der freie Code, den wir ihr heute und morgen zur Verfügung stellen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: sedot, Innensechskant, Ice_Dundee und 5 andere
Ich spende an den KDE e. V. :schluck:


Aus meiner Sicht wird sich nichts ändern, bis die Rechtsprechung an die neuen Gegebenheiten angepasst wurde. Die LLM-Projekte haben in den letzten Jahren quasi das komplette Internet leer gesaugt. Egal ob ein Inhalt legal oder illegal war, egal ob eine Lizenz die kommerzielle Verwendung erlaubte oder nicht, es wurde alles abgefragt und ausgewertet.
Ich finde, da sollte man ansetzen. Solange man keine Chance hat, sein Recht auch gegenüber den KI-Anbietern durchzusetzen, wird ein merkbarer Teil der Open-Source-Projekte verschwinden.

Wie eine geänderte Rechtsprechung aussehen könnte, weiß ich nicht. Man könnte beispielweise die KI-Firmen dazu zwingen, die abgefragten Quellen offen zu legen und zu jeder Quelle anzugeben, welchen Nutzungsbedingungen sie unterliegen und inwiefern sie durch das LLM eingehalten werden. Da würde dann recht schnell klar werden, was los ist.
Dagegen werden die KI-Firmen aber wahrscheinlich Widerstand ohne Ende aufbieten. Ich bin mir nämlich recht sicher, dass ein bedeutender Betrag der abgegriffenen Information genutzt wird, obwohl die Nutzungsbedingen das nicht zulassen.

Oder anders gesagt: Ich glaube, die LLMs werden alle nicht legal betrieben. Da wird noch was auf uns zukommen. Ich bin gespannt, wie man versuchen wird, sich da rauszuwinden.
 
  • Gefällt mir
Reaktionen: kim88
Ich weiss nicht ob eine Anpassung der Rechtssprechung da rückwirkend noch viel ändern wird oder kann. Der "Schaden*" ist ja bereits angerichtet.

*Obwohl ich nicht mal sicher bin ob es ein "Schaden" ist. Wie in meinem Text geschrieben, ich bin ja nutzniesser dieser Geschichte.

Ich denke eher dass die Projekte sich wirklich neue nachhaltige Geschäftsmodelle ausdenken müssen, ich hab ein paar Wege skizziert da gibt es sicherlich noch andere - und je nach Projekt solche die mehr oder weniger Sinn machen.

Die Projekte müssen jetzt reagieren, da sie jetzt betroffen sind und können nicht auf die internationale Politik warten.
 
Krik schrieb:
Aus meiner Sicht wird sich nichts ändern, bis die Rechtsprechung an die neuen Gegebenheiten angepasst wurde. Die LLM-Projekte haben in den letzten Jahren quasi das komplette Internet leer gesaugt. Egal ob ein Inhalt legal oder illegal war, egal ob eine Lizenz die kommerzielle Verwendung erlaubte oder nicht, es wurde alles abgefragt und ausgewertet.
Ich finde, da sollte man ansetzen. Solange man keine Chance hat, sein Recht auch gegenüber den KI-Anbietern durchzusetzen, wird ein merkbarer Teil der Open-Source-Projekte verschwinden.

Das ist die gängige Strategie in der Volks- und Betriebswirtschaft.
Zuerst nutzt man den ungeregelten Markt vollständig aus, erlangt eine Quasi-Monopolstellung und anschließend setzt man sich selbst für Regulierungen ein, damit zukünftige Konkurrenten keine Chance haben aufzuholen.

Deshalb ist es auch so wichtig, möglichst viele Ressourcen am Anfang zu investieren. Gewinn spielt in den ersten Jahren absolut keine Rolle! Es geht ausschließlich um Marktanteile. Die großen Gewinne werden sich dann in den folgenden Jahrzehnten dank der gefestigten Monopol- oder Oligopolstellung zeigen.

Die USA hat mal wieder gewonnen und sämtliche Regulation und neuen Gesetze werden europäische Konkurrenten von vornherein ausschließen. Alle kommenden Alternativen werden auf die gefestigten Anbieter als Grundlage setzen müssen. Über Lizenzen, gekaufte Abwandlungen als Eigenmarke, etc.
 
Vielleicht ist sowas wie Tailwind auch einfach nicht mehr nötig, weil KI das einfach bei Bedarf selber programmiert.

Oder die KI wird das Tool einfach weiter entwickeln.

Kurzfristig realistischer wäre wohl, das Open Source Projekten kostenloser Zugriff auf die KI Modelle gewährt wird. Das wäre ja nur fair. Und kostet die Betreiber wohl weniger, als sie wiederum von den Projekten gewonnen haben.
 
Krik schrieb:
Ich bin gespannt, wie man versuchen wird, sich da rauszuwinden.
Es gibt da ein paar Rauswindhilfen.

Die eine fängt mit "D" an und hört mit "ollar" auf, die Andere fängt mit "E" an ... .
 
  • Gefällt mir
Reaktionen: h00bi
@Micha- Weiss ich nicht. Auch wenn man mit KI entwickelt nutzt man gerne Frameworks. Ich jedenfalls wenn ich ein Projekt mit Claude Code oder Gemini CLI, etc umsetze gebe ich denen immer die Frameworks vor. Einerseits weil man damit halt schneller ist als wenn die KI dir ein Framework schreibt - und anderseits damit das begrenzte Kontextfenster nicht voll mit nutzlosem eigenentwickeltem Framework ist sondern - mit dem Zeug das du effektiv entwickeln willst.
 
Ich bin mir nicht sicher, ob der KI-Kram hier nicht nur ein Brandbeschleuniger ist. Denn die Tatsache, das große Tech-Konzerne Profit auf dem Rücken freier Software macht, ist ja eigentlich kein grundsätzlich neues Problem.
Wir haben das ja damals schon beim der OpenSSL-Security-Problem gesehen, wo klar wurde: Das wird viel genutzt inkl. von großen Konzernen aber kaum jemand beteiligte sich an der Entwicklung.

Der Cloud-Trend ansich war schon ein großes Problem. Weil selbst wer seinen Code unter GPL gestellt hat, damit Änderungen an die Gemeinschaft zurück fließt, nicht mehr funktioniert hat, weil Kunden kein abgleitetes Produkt mehr lizenzieren, sondern nur noch einen Service nutzen.

KI dreht das ganze weiter. Von mir aus auch noch mit einer neuen Qualität. Aber das Grundproblem, nämlich das sich große Tech-Konzerne bereichern, ist eigentlich ein Altbekanntes. Und da sollte man vielleicht auch ansetzen.

Vermutlich kriegt man das effektiv nur durch Regulierung hin. Und hier liegt auch das Problem. Diese müsste global erfolgen. Ansonsten hat man immer das Problem, das der der sich außerhalb der Regulierungszone befindet, immer erst mal einen Vorteil hat.

Die andere Möglichkeit ist, das das Internetvolk quasi mit den Füßen abstimmt. Und eben nicht mehr den Googles, OpenAIs und Microsofts dieser Welt hinter her rennt wie bisher. Dann hätten die auch nicht mehr die Möglichkeit ihre Macht auszuspielen.

btw.: Stehen wir ohnehin vor einem ganz fundamentalen Problem. Bisher haben Maschinen vor allem uns von körperlicher Arbeit befreit. Die freigesetzten Arbeitskräfte konnte man zum Großteil umlenken in moderne Arbeitsplätze.
Mit Computisierung (insbesondere auch durch KI) werden wir auch noch von geistiger Arbeit befreit.
Nur wo schickt man die frei gewordenen Arbeitskräfte jetzt hin?
Klar wird es immer noch Bedarf an menschlicher Arbeit haben und bisher merken wir davon noch nicht so stark was.
Aber in den nächsten Jahren wird das ein Thema.

Wie soll dann überhaupt noch das Wirtschaftssystem funktionieren? Bisher war: Arbeiter kriegt Lohn. Und für den Lohn kauft er sich Produkte, womit die Firmen Profite machen (und davon natürlich auch wieder Lohn zahlen).
Kurzum: Wenn keiner mehr Arbeitet und Geld verdient, an wen sollen die Firmen dann noch die Produkte verkaufen?
Das ist ein fundamentales Problem vor dem wir stehen und für das es in unserem System auch keine triviale Antwort gibt.

Langfristig führt das vielleicht zu einem Umbau in eine Gesellschaft ähnlich wie bei Star Trek. Wo quasi Geld keine Rolle mehr spielt und sozusagen alle davon profitieren, was die Maschinen produzieren.
Vielleicht aber auch nicht. Und selbst wenn, wird der Weg sehr steinig. Weil die Profiteure des jetzigen Systems werden natürlich so lange wie möglich daran festhalten, wofür sie auch gute Mittel haben, weil es gleichzeitig auch die Mächtigen sind.
Man kann ja im Augenblick in der USA schön bestaunen was passiert, wenn die Mächtigen freie Hand haben.
Soziale Unruhen bis hin zum Bürgerkrieg und abgleiten in ein failed state, das im wesentlichen von Warlords regiert wird, ist keine unrealistische Dystopie mehr.

Deine Sorge in allen Ehren, aber ich glaube das Problem ist größer als das Tailwind weiter machen kann oder Mozilla ihren nächsten Firefox finanziert kriegt.
 
  • Gefällt mir
Reaktionen: sedot
Ich würde mich mal als Lager " Vibe Coding " outen. Ich sehe aber durchaus auch beide Seiten. Ist so ein typischer technologischer " himmelhoch Jauchzend zu Tode betrübt" Moment.

Es steht außer Frage das bei Jeder technologischen Entwicklung einige Gewinnen und andere Verlieren. Das ist aber letztlich teil des Systems Marktwirtschaft und Kapitalismus. Selbst an den Absurdesten Situationen --> 9/11 oder Corona gab es Menschen die Geld verloren haben und andere die Signifikant Profitiert haben.

Also ja : Dualität. Ambivalenz.

Die Frage ist was machen wir daraus?

Kenne ich eine gute Lösung? definitiv nicht. aber was ich weiß : Fortschritt ist nicht auf zu halten. Punkt. Also müssen wir uns überlegen wie wir das beste daraus machen
 
andy_m4 schrieb:
Mit Computisierung (insbesondere auch durch KI) werden wir auch noch von geistiger Arbeit befreit.
Jetzt sind wir endgültig in ferne Science-Fiction abgeglitten.

Jeder, der denkt, dass die heutige "KI", die etabliert ist, also LLMs etc., auch nur ansatzweise in der Lage wäre, uns jegliche geistige Arbeit abzunehmen, der hat entweder gar keine Ahnung vom Thema, oder ist ein Betrüger, der Investoren anlocken will.
 
  • Gefällt mir
Reaktionen: Stovi
Andarkan schrieb:
Jeder, der denkt, dass die heutige "KI", die etabliert ist, also LLMs etc., auch nur ansatzweise in der Lage wäre, uns jegliche geistige Arbeit abzunehmen
Jegliche geistige Arbeit war ja auch gar nicht meine Behauptung.

Nichtsdestotrotz muss man ja einfach mal anerkennen, das man sich Arbeitskräfte spart.
Genauso wie zuvor die Einführung von Maschinen in der Produktion Arbeitskräfte gespart hat, weil ein Arbeiter die Arbeit von 10 Leuten schafft.
Und ich sag jetzt mal salopp: Damals war das nicht so schlimm, weil diese 9 überflüssigen Leute immer noch irgendwo ein Job (von mir aus im Büro) gefunden haben.

Die Frage, die sich stellt, ob künftig genügend neue Jobs geschaffen werden um der durch KI und Co ausgelösten Rationalisierung freiwerdenden Arbeitskräfte irgendwo unterzubekommen.

Und es nützt Dir ja auch nix, wenn Du immer noch menschliche Arbeitskraft brauchst aber nicht mehr für die große Masse der Menschen.

Ist übrigens auch keine neue und aus der Luft gegriffene Erkenntnis. Das Problem, das technologischer Fortschritt (zumindest erst mal) Arbeitslose produziert hat, kam ja nun schon ein paar Mal vor.
Ergänzung ()

Restart001 schrieb:
Die sollen klagen, bestimmt ein Copyrightverstoß.
Das zieht aber nur bei 1:1 Kopien.
 
andy_m4 schrieb:
Genauso wie zuvor die Einführung von Maschinen in der Produktion Arbeitskräfte gespart hat, weil ein Arbeiter die Arbeit von 10 Leuten schafft.
Und ich sag jetzt mal salopp: Damals war das nicht so schlimm, weil diese 9 überflüssigen Leute immer noch irgendwo ein Job (von mir aus im Büro) gefunden haben.
Naja, die Leute damals haben bestimmt keinen Job im Büro gefunden - die meisten konnten weder lesen noch schreiben.
Heute verlieren die qualifizierten Leute ihren Job. Haben aber 2 linke Hände und sind daher nicht als Handwerker einsetzbar. Oder haben Rücken und damit nichts für die Pflege.
So ist das in allen Umbruchzeiten.
Und wenn wir mal ehrlich sind - Ideen in code umzusetzen und dabei strikt einer Syntax zu folgen ist ja eigentlich nicht gerade besonders herausfordernd. Die Software-Architektur und die Ideen zu entwickeln ist das wesentliche und das können die LLMs ja noch nciht.
 
Micha- schrieb:
Naja, die Leute damals haben bestimmt keinen Job im Büro gefunden - die meisten konnten weder lesen noch schreiben.
Ja. Das war sehr vereinfacht dargestellt.
Der entscheidende Punkt ist doch: Bekommst Du immer genug Leute in Erwerbstägigkeit, so das sich nicht über längere Zeit eine große Anzahl von Arbeitslosen hast.

Micha- schrieb:
Die Software-Architektur und die Ideen zu entwickeln ist das wesentliche und das können die LLMs ja noch nciht.
Langsam wird es nervig das ich mich immer wieder wiederholen muss:
Das Argument war nicht, das menschliche Arbeitskraft überflüssig wird, sondern das künftig nicht mehr hinreichend genug Leute in Lohn und Brot sind.
 
andy_m4 schrieb:
Mit Computisierung (insbesondere auch durch KI) werden wir auch noch von geistiger Arbeit befreit.
Nur wo schickt man die frei gewordenen Arbeitskräfte jetzt hin?
Im Buch Arbeitsfrei (Riemann Verlag, 2013) wurde die Frage zur Automatisierung und frei werdenden Arbeitskräften diskutiert. Die damalige (von mir paraphrasierte) Idealvorstellung der automatisierten Zukunft von Constanze Kurz und Frank Rieger war, dass es eine Steuer für solche Prozesse nötig werden könnte, die wiederum ein bedingungsloses Grundeinkommen für Menschen finanziert.
Ich fand den Gedanken ganz schön – jetzt in der Zukunft landet der Gewinn bei sehr wenigen Superreichen, wäre vielleicht an der Zeit noch mal darüber nachzudenken ob es nicht auch anders geht.

Es ist für mich schwer erträglich wie unreflektiert und naiv das Verhalten der Big Player im Moment toleriert, gefördert und bejubelt wird, trotz des entstehenden Schadens. Als ob das allesamt altruistische Wohltäter wären.
 
  • Gefällt mir
Reaktionen: Kuristina
sedot schrieb:
dass es eine Steuer für solche Prozesse nötig werden könnte, die wiederum ein bedingungsloses Grundeinkommen für Menschen finanziert.
Das wäre zumindest ein Modell, was diskussionswürdig ist.
Und so was brauchen wir halt auch. Nur leider ist davon in der breiten Öffentlichkeit und in der Politik nix zu sehen. Gerade letzteres versucht so eher die alten Methoden aus der Mottenkiste zu holen, die natürlich nicht funktionieren.

sedot schrieb:
Es ist für mich schwer erträglich wie unreflektiert und naiv das Verhalten der Big Player im Moment toleriert, gefördert und bejubelt wird, trotz des entstehenden Schadens.
Ja. Ich meine, es gibt ja schon Kritik. Aber die ist eher wenig vertreten und so grundsätzlich was ändern tut sich halt nicht.
Und Änderungen wären ja aus mehren Gründen nötig. Also die Sache mit den Arbeitskräften etc. ist ja das eine.

Aber auch schon allein die ganze Sache mit der Ressourcenknappheit und der Umweltzerstörung. Und dann wird halt allenfalls mal lapidar gesagt, das wir dann halt nur Wärmepumpen, E-Autos und Solarplatten brauchen und dann kriegen wir das schon hin.
Und das wird so nicht funktionieren. Ein Wirtschaftssystem was darauf ausgerichtet ist, wachsen zu müssen, ist halt inhärent nicht nachhaltig.

Wir müssen also so oder so da ran.
Nur das traut sich eben keiner. Und das, obwohl man weiß, das es nur schlimmer wird je länger man wartet.

sedot schrieb:
Als ob das allesamt altruistische Wohltäter wären.
Es ist halt viel geprägt vom alten Denken. Das zwar schon gesehen wird, das das ungerecht ist und auch nicht wirklich gut funktioniert, aber man ja sicher immer noch ein Stück vom Kuchen abbekommt, was groß genug ist.
Und ja. Teilweise werden auch manche Leute über Gebühr gefeiert. Das idealisieren von soziopathischen Verhalten.
 
Zurück
Oben