Wer heute Software entwickelt oder sein System optimiert, kommt an Künstlicher Intelligenz (KI) kaum noch vorbei. Ein kurzer Befehl im Chat oder eine automatische Ergänzung im Editor, und schon steht das fertige Skript. Doch was sich für uns nach purer Effizienz anfühlt, löst im Hintergrund eine existenzielle Krise für jene Menschen aus, die diese Werkzeuge ursprünglich erschaffen haben. Ein aktuelles Beispiel zeigt uns gerade, dass das gesamte Open-Source-Ökosystem – also auch die Basis unserer geliebten Linux-Systeme – vor einem riesigen Problem steht.
Nun ist jedoch bedenkliches passiert: Das Team hinter Tailwind musste Personal entlassen - und zwar massiv 75% der Entwickler:innen bei Tailwind wurden entlassen. Der Grund? Der Umsatz ist wegen KI-Tools um 80% eingebrochen.
Im Zeitalter der KI hat sich das Spiel gedreht. Die KI-Modelle wurden mit Millionen Zeilen von Tailwind-Code trainiert. Heute tippt man einen einfachen Satz wie: "Erstelle mir ein Dashboard-Layout mit Tailwind", und die KI liefert das Ergebnis in Sekunden. Kostenlos. Die Bequemlichkeit der KI zerstört die einzige Einnahmequelle, die ein hochprofessionelles freies Projekt am Leben hielt. Die KI nutzt die kollektive Intelligenz der Community als kostenlose Tankstelle, während die Tankstellenpächter:innen vor dem Ruin stehen.
In der Community gibt es oft eine lautstarke Fraktion von KI-Kritiker:innen. Sie verweisen zu Recht auf Datenschutzbedenken oder den Diebstahl geistigen Eigentums beim Training der Modelle. Microsoft wird oft als Paradebeispiel für diese Entwicklung angefeindet, besonders wenn sie über ihre Tochterplattform GitHub berichten, wie rasant die KI-Nutzung zunimmt. Wer ehrlich zu sich selbst ist, erkennt: Die Effizienzsteigerung ist real. Laut offiziellen Daten von GitHub werden bei Entwickler:innen, die Copilot aktiv nutzen, bereits rund 46 % des Codes von der KI geschrieben – eine Zahl, die laut GitHub-CEO Thomas Dohmke rapide auf die 50-Prozent-Marke zusteuert.
Man mag über diesen Konzern-Hype spotten, doch wir produzieren Code heute in einer Geschwindigkeit, die vor wenigen Jahren undenkbar war. Aber wir tun dies auf dem Rücken von Open-Source-Projekten, deren Wissen wir "absaugen", ohne dass ein Rappen zurückfliesst. Wir managen die KI-Agenten, während die eigentlichen Urheber:innen der Logik, die diese Agenten füttert, leer ausgehen.
Nehmen wir das Beispiel Firefox. Die Mozilla Foundation finanziert sich zu einem Grossteil über Suchmaschinen-Partnerschaften. Jedes Mal, wenn wir die Standard-Suche nutzen, fliesst ein kleiner Betrag zurück in die Entwicklung des Browsers. Doch der Trend geht weg von der klassischen Suche hin zum "Answer Engine" - Unter Jugendlichen sind Leute die noch "Google" verwenden das neue Beispiel für "altmodische Menschen" - ChatGPT ist dort längst Alltag für alle möglichen anfragen die man früher in Suchmaschinen eingegeben hat.
Wenn Nutzer:innen ihre Fragen direkt einem KI-Bot stellen, statt eine Webseite aufzurufen, bricht dieses Modell in sich zusammen. Ohne die Milliarden von Suchanfragen schwindet die Verhandlungsmacht von Mozilla gegenüber Giganten wie Google. Das Ergebnis wäre fatal: Ein Internet, in dem es keine unabhängige Engine mehr gibt, sondern nur noch das, was die KI-Konzerne uns vorsetzen.
Bei Projekten wie LibreOffice oder den grossen Desktop-Umgebungen wie GNOME und KDE sieht die Gefahr anders aus, ist aber nicht minder real. Diese Projekte finanzieren sich oft durch ein Ökosystem aus Dienstleistungen. Unternehmen zahlen für zertifizierten Support, massgeschneiderte Anpassungen oder spezialisierte Schulungen. Hier greift die KI nun direkt in das Expertenwissen ein. Wenn eine KI in der Lage ist, hochkomplexe LibreOffice-Makros zu schreiben, komplexe Konfigurationsfehler im Desktop-System in Sekunden zu diagnostizieren oder individuelle Workflows zu automatisieren, schwindet der finanzielle Anreiz für Firmen, Support-Verträge abzuschliessen.
Das Problem dabei: Die KI liefert zwar die Lösung, trägt aber keinen Rappen zur Instandhaltung des Codes bei, auf dem diese Lösung basiert. Wir beobachten hier eine Form von digitalem Raubbau. Wir entziehen den Projekten die Expert:innen-Honorare, die bisher die Vollzeit-Entwickler:innen und die so wichtigen Sicherheitsaudits querfinanziert haben. Wenn das Wissen der Community in einer Blackbox landet, die zwar Antworten gibt, aber keine Rechnungen für die zugrunde liegende Entwicklung bezahlt, stirbt die Innovation an der Basis. Am Ende stünden wir vor einer Welt, in der die Software zwar noch "offen" ist, aber niemand mehr da ist, der die kritischen Lücken schliesst oder neue Funktionen implementiert, weil das Geld für die Profis schlicht fehlt.
Die grossen Player wie OpenAI, Anthropic oder Perplexity sind trotz ihrer Milliardenbewertungen bisher gigantische Geldvernichtungsmaschinen. Sie verbrennen jeden Tag Millionen für Rechenleistung und Training, ohne unterm Strich schwarze Zahlen zu schreiben. Es ist kaum realistisch zu glauben, dass Unternehmen, die selbst am Tropf von Risikokapitalgeber:innen hängen, die weltweite Open-Source-Entwicklung nachhaltig finanzieren können. Wir können nicht auf Almosen von Firmen warten, die selbst noch kein tragfähiges Geschäftsmodell gefunden haben. Wir müssen daher viel breiter und radikaler denken.
Eines ist klar: Die Zeit der Freiwilligkeit stösst an ihre Grenzen. Wir brauchen ein System, das den Wert der Quelle schützt, bevor die KI sie endgültig leergesaugt hat.
Doch genau aus dieser Liebe zur Technologie entspringt meine Sorge. Wir dürfen nicht so naiv sein zu glauben, dass dieser Fortschritt umsonst ist. Wenn wir die KI als reine Abkürzung nutzen, ohne uns um die Quellen zu kümmern, aus denen sie speist, sägen wir an dem Ast, auf dem wir alle sitzen. Open Source ist das Fundament, auf dem die gesamte moderne IT-Welt und auch jede KI aufgebaut wurde. Wenn Projekte wie Tailwind CSS aufgrund ihrer eigenen Popularität finanziell kollabieren, dann ist das ein Systemfehler, den wir nicht ignorieren dürfen.
Wir stehen an einem Punkt, an dem wir Verantwortung übernehmen müssen. Wir können die Bequemlichkeit der KI geniessen, müssen aber gleichzeitig lautstark neue Wege der Finanzierung einfordern. Es darf nicht sein, dass wir als Community die Arbeit leisten und einige wenige KI-Giganten den gesamten wirtschaftlichen Nutzen abschöpfen, während die Original-Projekte Personal entlassen müssen.
Mein Appell an uns alle: Nutzt die KI, seid produktiv, seid Nerds, aber bleibt kritisch. Unterstützt eure Lieblingsprojekte, sei es durch Sponsoring, Beiträge oder indem ihr Druck auf die grossen Player ausübt oder eure Politiker in die Pflicht nehmt. Wir müssen sicherstellen, dass die "Intelligenz" der Maschinen nicht zum Grabgräber der menschlichen Zusammenarbeit wird. Denn am Ende ist die KI nur so gut wie der freie Code, den wir ihr heute und morgen zur Verfügung stellen.
Das Beispiel Tailwind: Wenn Erfolg zum Verhängnis wird
Um das Problem zu verstehen, schauen wir uns ein Projekt namens Tailwind CSS an. Für alle, die nicht im Web-Design zu Hause sind: Tailwind ist ein riesiger, kostenloser Baukasten, mit dem man Webseiten wie mit Lego-Steinen gestaltet. Es ist extrem erfolgreich und wird weltweit genutzt. Damit das Team dahinter die Entwicklung in Vollzeit vorantreiben kann, haben sie handgefertigte Design-Vorlagen verkauft. Wer als Entwickler Zeit sparen wollte, kaufte diese Vorlagen und finanzierte so das kostenlose Grundprojekt mit.Nun ist jedoch bedenkliches passiert: Das Team hinter Tailwind musste Personal entlassen - und zwar massiv 75% der Entwickler:innen bei Tailwind wurden entlassen. Der Grund? Der Umsatz ist wegen KI-Tools um 80% eingebrochen.
Im Zeitalter der KI hat sich das Spiel gedreht. Die KI-Modelle wurden mit Millionen Zeilen von Tailwind-Code trainiert. Heute tippt man einen einfachen Satz wie: "Erstelle mir ein Dashboard-Layout mit Tailwind", und die KI liefert das Ergebnis in Sekunden. Kostenlos. Die Bequemlichkeit der KI zerstört die einzige Einnahmequelle, die ein hochprofessionelles freies Projekt am Leben hielt. Die KI nutzt die kollektive Intelligenz der Community als kostenlose Tankstelle, während die Tankstellenpächter:innen vor dem Ruin stehen.
Vom Entwickler:in zum KI-Agent-Manager
Dieses Phänomen ist kein Einzelfall, sondern beschreibt einen fundamentalen Wandel unserer Arbeitsweise. Ich merke es bei mir selbst: Tools wie Claude Code, GitHub Copilot und Gemini gehören heute fest zu meinem Alltag. Die Realität ist, dass ich mich heute oft mehr wie ein Manager von KI-Agenten fühle als wie ein klassischer Entwickler. Ich schreibe nicht mehr jede Zeile selbst. Ich delegiere Aufgaben an die KI, prüfe die Ergebnisse und füge sie zusammen.In der Community gibt es oft eine lautstarke Fraktion von KI-Kritiker:innen. Sie verweisen zu Recht auf Datenschutzbedenken oder den Diebstahl geistigen Eigentums beim Training der Modelle. Microsoft wird oft als Paradebeispiel für diese Entwicklung angefeindet, besonders wenn sie über ihre Tochterplattform GitHub berichten, wie rasant die KI-Nutzung zunimmt. Wer ehrlich zu sich selbst ist, erkennt: Die Effizienzsteigerung ist real. Laut offiziellen Daten von GitHub werden bei Entwickler:innen, die Copilot aktiv nutzen, bereits rund 46 % des Codes von der KI geschrieben – eine Zahl, die laut GitHub-CEO Thomas Dohmke rapide auf die 50-Prozent-Marke zusteuert.
Man mag über diesen Konzern-Hype spotten, doch wir produzieren Code heute in einer Geschwindigkeit, die vor wenigen Jahren undenkbar war. Aber wir tun dies auf dem Rücken von Open-Source-Projekten, deren Wissen wir "absaugen", ohne dass ein Rappen zurückfliesst. Wir managen die KI-Agenten, während die eigentlichen Urheber:innen der Logik, die diese Agenten füttert, leer ausgehen.
Die Illusion des ewigen Ehrenamts: Wenn KIs die ökonomische Basis zersetzen
Innerhalb der OpenSource-Welt pflegen wir oft die romantische Vorstellung, dass Open Source von einer Armee von Idealist:innen in ihrer Freizeit gestemmt wird. Doch die Software, die wir täglich nutzen, ist heute hochgradig professionalisiert und muss mit den Milliarden-Budgets von Konzernen wie Google, Microsoft oder Apple mithalten. Ein moderner Browser oder eine Office-Suite besteht aus Millionen Zeilen Code, deren Wartung Millionen von Franken kostet. KI droht nun, genau die Nischen und Einnahmequellen zu besetzen, die diese Projekte bisher am Leben erhalten haben.Nehmen wir das Beispiel Firefox. Die Mozilla Foundation finanziert sich zu einem Grossteil über Suchmaschinen-Partnerschaften. Jedes Mal, wenn wir die Standard-Suche nutzen, fliesst ein kleiner Betrag zurück in die Entwicklung des Browsers. Doch der Trend geht weg von der klassischen Suche hin zum "Answer Engine" - Unter Jugendlichen sind Leute die noch "Google" verwenden das neue Beispiel für "altmodische Menschen" - ChatGPT ist dort längst Alltag für alle möglichen anfragen die man früher in Suchmaschinen eingegeben hat.
Wenn Nutzer:innen ihre Fragen direkt einem KI-Bot stellen, statt eine Webseite aufzurufen, bricht dieses Modell in sich zusammen. Ohne die Milliarden von Suchanfragen schwindet die Verhandlungsmacht von Mozilla gegenüber Giganten wie Google. Das Ergebnis wäre fatal: Ein Internet, in dem es keine unabhängige Engine mehr gibt, sondern nur noch das, was die KI-Konzerne uns vorsetzen.
Bei Projekten wie LibreOffice oder den grossen Desktop-Umgebungen wie GNOME und KDE sieht die Gefahr anders aus, ist aber nicht minder real. Diese Projekte finanzieren sich oft durch ein Ökosystem aus Dienstleistungen. Unternehmen zahlen für zertifizierten Support, massgeschneiderte Anpassungen oder spezialisierte Schulungen. Hier greift die KI nun direkt in das Expertenwissen ein. Wenn eine KI in der Lage ist, hochkomplexe LibreOffice-Makros zu schreiben, komplexe Konfigurationsfehler im Desktop-System in Sekunden zu diagnostizieren oder individuelle Workflows zu automatisieren, schwindet der finanzielle Anreiz für Firmen, Support-Verträge abzuschliessen.
Das Problem dabei: Die KI liefert zwar die Lösung, trägt aber keinen Rappen zur Instandhaltung des Codes bei, auf dem diese Lösung basiert. Wir beobachten hier eine Form von digitalem Raubbau. Wir entziehen den Projekten die Expert:innen-Honorare, die bisher die Vollzeit-Entwickler:innen und die so wichtigen Sicherheitsaudits querfinanziert haben. Wenn das Wissen der Community in einer Blackbox landet, die zwar Antworten gibt, aber keine Rechnungen für die zugrunde liegende Entwicklung bezahlt, stirbt die Innovation an der Basis. Am Ende stünden wir vor einer Welt, in der die Software zwar noch "offen" ist, aber niemand mehr da ist, der die kritischen Lücken schliesst oder neue Funktionen implementiert, weil das Geld für die Profis schlicht fehlt.
Wie finanzieren wir die Zukunft? Eine Suche nach neuen Wegen
Wir stehen vor der grossen Frage: Wie sieht ein nachhaltiges Modell für Open Source im KI-Zeitalter aus? Die offensichtlichste Idee wäre eine verpflichtende Ausgleichszahlung der KI-Giganten an Open-Source-Stiftungen. Es klingt nur fair: Wer seine Modelle mit dem Wissen der Community trainiert, sollte einen Teil des Gewinns zurückgeben. Doch hier stossen wir auf die bittere wirtschaftliche Realität der Gegenwart.Die grossen Player wie OpenAI, Anthropic oder Perplexity sind trotz ihrer Milliardenbewertungen bisher gigantische Geldvernichtungsmaschinen. Sie verbrennen jeden Tag Millionen für Rechenleistung und Training, ohne unterm Strich schwarze Zahlen zu schreiben. Es ist kaum realistisch zu glauben, dass Unternehmen, die selbst am Tropf von Risikokapitalgeber:innen hängen, die weltweite Open-Source-Entwicklung nachhaltig finanzieren können. Wir können nicht auf Almosen von Firmen warten, die selbst noch kein tragfähiges Geschäftsmodell gefunden haben. Wir müssen daher viel breiter und radikaler denken.
1. Compute-Sharing statt Cash
Wenn die Firmen kein Bargeld haben, haben sie doch eines im Überfluss: Rechenleistung. Ein neues Modell könnte "Compute-Sharing" sein. KI-Anbieter könnten verpflichtet werden, einen Teil ihrer gewaltigen GPU-Cluster für Open-Source-Projekte zur Verfügung zu stellen. Damit könnten Stiftungen eigene, spezialisierte Modelle trainieren oder komplexe Sicherheitsanalysen automatisieren, für die ihnen heute schlicht die Hardware fehlt. Rechenpower ist die Währung der Zukunft und Open Source braucht einen fairen Wechselkurs.2. Die Rückkehr der restriktiven Lizenzen
Lange Zeit galt die extrem liberale MIT-Lizenz als Goldstandard, weil sie kaum Einschränkungen macht. Doch im KI-Zeitalter könnte das Pendel zurückschlagen. Wir brauchen Lizenzen, die eine klare Trennung ziehen: Frei für die menschliche Nutzung und die klassische Community-Arbeit, aber kostenpflichtig oder zustimmungspflichtig für das automatisierte Training durch kommerzielle KIs. Das "Dual-Licensing"-Modell, wie wir es von Datenbanken wie MySQL kennen, könnte eine Renaissance erleben, angepasst auf die Bedürfnisse von LLMs.MySQL nutzt traditionell die GPL (General Public License): Wer die Software für eigene Open-Source-Projekte nutzt, zahlt nichts. Wer MySQL jedoch in ein geschlossenes, kommerzielles Produkt einbauen will, ohne seinen eigenen Code offenzulegen, muss eine kommerzielle Lizenz kaufen.
Auf die KI-Welt übertragen hiesse das: Ein LLM darf den Code zwar lesen und für Menschen indexieren, aber sobald die KI den Code nutzt, um daraus kommerziellen Profit zu schlagen oder Produkte für Dritte zu generieren, wird eine Lizenzgebühr fällig.
Auf die KI-Welt übertragen hiesse das: Ein LLM darf den Code zwar lesen und für Menschen indexieren, aber sobald die KI den Code nutzt, um daraus kommerziellen Profit zu schlagen oder Produkte für Dritte zu generieren, wird eine Lizenzgebühr fällig.
3. Digitale Infrastruktur als staatliche Aufgabe
Vielleicht müssen wir Software endlich als das begreifen, was sie ist: eine kritische Infrastruktur. Wir akzeptieren, dass der Staat Strassen, Brücken und das Schienennetz finanziert, weil die Gesellschaft darauf angewiesen ist. Warum gilt das nicht für den Code, auf dem unsere gesamte digitale Verwaltung und Wirtschaft basiert? Eine staatliche Förderung von Open-Source-Stiftungen, finanziert durch eine Digitalsteuer für Grosskonzerne, könnte die Unabhängigkeit sichern, die der Markt allein nicht mehr garantieren kann.4. Proof of Human Contribution
Ein weiterer, eher technischer Ansatz wäre die Einführung von Mechanismen, die den Wert menschlicher Arbeit im Code verifizieren. Wenn eine Firma nachweisen will, dass ihre Software sicher und "handgefertigt" ist (ähnlich wie Bio-Produkte in der Landwirtschaft), könnte dies über Zertifizierungen laufen, die wiederum Gebühren an die zugrunde liegenden Open-Source-Projekte abführen.Eines ist klar: Die Zeit der Freiwilligkeit stösst an ihre Grenzen. Wir brauchen ein System, das den Wert der Quelle schützt, bevor die KI sie endgültig leergesaugt hat.
Mein persönliches Fazit: Ein Liebesbrief mit Warnhinweis
Ich will ehrlich sein: Ich liebe diese neue Welt. Als IT-Nerd und Web-Entwickler geniesse ich es jeden Tag, mit KI-Agenten zu arbeiten. Für mich gibt es kein Zurück mehr in eine Zeit, in der ich jede Zeile Boilerplate-Code mühsam von Hand getippt habe. Tools wie Claude, Copilot und Gemini haben meine Arbeitsweise fundamental verändert. Ich bin heute eher ein Architekt und Manager von Logik als ein blosser Code-Schreiber. Die Effizienz und die kreativen Möglichkeiten, die uns diese Werkzeuge bieten, sind schlichtweg atemberaubend. Ich möchte und werde nicht mehr ohne sie arbeiten.Doch genau aus dieser Liebe zur Technologie entspringt meine Sorge. Wir dürfen nicht so naiv sein zu glauben, dass dieser Fortschritt umsonst ist. Wenn wir die KI als reine Abkürzung nutzen, ohne uns um die Quellen zu kümmern, aus denen sie speist, sägen wir an dem Ast, auf dem wir alle sitzen. Open Source ist das Fundament, auf dem die gesamte moderne IT-Welt und auch jede KI aufgebaut wurde. Wenn Projekte wie Tailwind CSS aufgrund ihrer eigenen Popularität finanziell kollabieren, dann ist das ein Systemfehler, den wir nicht ignorieren dürfen.
Wir stehen an einem Punkt, an dem wir Verantwortung übernehmen müssen. Wir können die Bequemlichkeit der KI geniessen, müssen aber gleichzeitig lautstark neue Wege der Finanzierung einfordern. Es darf nicht sein, dass wir als Community die Arbeit leisten und einige wenige KI-Giganten den gesamten wirtschaftlichen Nutzen abschöpfen, während die Original-Projekte Personal entlassen müssen.
Mein Appell an uns alle: Nutzt die KI, seid produktiv, seid Nerds, aber bleibt kritisch. Unterstützt eure Lieblingsprojekte, sei es durch Sponsoring, Beiträge oder indem ihr Druck auf die grossen Player ausübt oder eure Politiker in die Pflicht nehmt. Wir müssen sicherstellen, dass die "Intelligenz" der Maschinen nicht zum Grabgräber der menschlichen Zusammenarbeit wird. Denn am Ende ist die KI nur so gut wie der freie Code, den wir ihr heute und morgen zur Verfügung stellen.
Zuletzt bearbeitet: