Magellan schrieb:
Wir haben deswegen keine Leute entlassen...
Schön zu lesen, dass es mal nicht der Fall ist.
Mit Blick quasi alle größeren Firmen ist dieses Szenario aber normal fast inexistent: Google, Amazon, SAP, Duolingo, Meta, EA, Activision, MS und unzählig weitere Firmen nutzen "KI" als Vorwand um Stellen abzubauen damit "Number go up" weiter bestehen bleibt.
Dass ebenfalls ersten Berichten nach ein guter Teil dieser Firmen dass bereut, stimmt allerdings ebenfalls und passt damit super zu Teil 2 deiner Aussage:
Magellan schrieb:
Wir haben deswegen keine Leute entlassen, aber den eigenen Output deutlich gesteigert.
Damit wärt ihr den bisherigen Daten nach im Promille Bereich der Firmen, die dass bisher geschafft haben.
Und dass ist ziemlich unabhängig vom Anwendungsgebiet. Es gibt bisher schlicht keine Daten die wirklich darauf hindeuten dass allgemein gesehen ein LLM die Produktivität steigert. Gefühlt für einige Leute in Bereichen sicher, ob es mehr als ein Gefühl ist, ist auf Basis von Daten aber bisher nicht belegbar und wir haben nicht mal hinweise dass es so sein kann.
Was nicht heißt, dass es nicht möglich ist, sicher ist es dass, nur bisher noch nicht messbar passiert.
Ich würde unter der Annahme, dass ein Produktivitätsplus aktuell schon entsteht aber relativ schnell argumentieren, dass die Prozesse außen drum sowie die Aufgaben-Verteilung vorher dann mit recht hoher Wahrscheinlich nicht gut optimiert waren, so dass man nen ähnlichen Uplift wahrscheinlich auch anders erreichen hätte können. Plus, mit hoher Sicherheit besteht in dem Szenario dann auch die Chance, dass jemand nicht das passende Wissen oder den Willen hatte, so dass man dank den Halluzinationen der LLMs auch ein deutlich höheres Risiko einfährt. Kann man sicher machen, Profit VS Risiko, kommt dann aber halt auch immer darauf an, wie "teuer" der Böse-Fall des Risikos wird.
"KI" ist jeglichen Fakten und Daten nach in der Phase "Habe merkwürdig geformten Hammer, suche merkwürdig geformten Nagel". Klar lässt sich unter limitierten Bereichen schon heute damit sehr gut arbeiten (spezielle neuronale Netze für z.B. Erkennung von Hauptkrebs, Medikamenten Variationen mit potenziell weniger Nebenwirkungen etc.)... Dann aber eben nicht als LLM welches so viel Strom verbraucht wie ganze Staaten sondern eher ein einzelnes Server-Rack welches nicht mal 24/7 rechnen muss weil es eben nur für spezielle Aufgaben überhaupt genutzt wird...
Nein, es werden am Ende wir als Gesellschaft sein die die Quittung für diesen Exzess zahlen müssen.
Und wer die Illusion hat, dass es einen persönlich nicht betrifft, weil man im Wohlstand im relativ schönen Europa wohnt, der sollte lieber zwei mal nachdenken was die Konsequenzen für das Klima und die Umwelt sind und wie sich dass in einer Kaskade auf quasi jeden anderen Menschen auswirkt.
Aber damit man hier mal etwas konstruktiv ist: wenn z.B. MS für X Mrd. Chips kauft und geplant X Terre Watt verbrauchen möchte, dann wäre hier eine fairere Verteilung der Konsequenzen eine gute Möglichkeit, dass sowohl MS als auch Nvidia und die Energie-Produzenten ihren Teil bei der Bekämpfung der Probleme die sie verursachen beitragen. Nämlich, ihr kauft/fertigt Chips für X Mrd., dann müsst ihr y% extra abdrücken, damit jemand euren Mist "wegmachen" kann.
Und ja, wir sicher nicht passieren, weil Ultra-Kurzfristige-Gier die Welt regiert, mittelfristig aber ist jeglichen Daten zur Problem-Stellung es aber um mehrere Größenordnungen günstiger heute genau sowas zu machen. Sowas muss man aber wollen und aktuell sieht es nicht danach aus...