Natürlich. Alle Kritiker liegen falsch. Aber das Beispiel was sie sich ausgesucht haben und was somit dem BESTEN entspricht was man zeigen konnte, sieht halt einfach wie "AI Slop" aus.
Wir haben hier also ähnlich wie bei MS & Co. die Differenz zwischen Manager, der "AI" UNBEDINGT verkaufen muss weil es das Überleben seiner Firma sichert und Realität wo das Ergebnis nicht so gut ist, wie es das Manager wahrhaben möchte in Kombination mit Kunden die kein "AI Slop" möchten.
Sollte der Backlash groß genug werden und es in der Praxis häufig genug nicht genutzt werden, dann könnte das Ding hier eventuell wieder verschwinden. Wenn es aber wie in der Letzten News hierzu von mir spekuliert dazu führt, dass wie bei der Spiele-Optimierung die Publisher deutlich weniger Arbeit bei Gesichtern haben... Dann wird es kommen, egal was die Spieler nun wollen oder nicht, einfach weil EA, Acti, Ubi & Co. hier immer den Weg der geringsten Ausgaben gehen werden. Gerade wie letztes mal geschrieben, wenn man den KERN ASPEKT Performance dank Upscaling und Framegen komplett mit Füßen tritt, darf man sich gerne vorstellen, wie Gesichter aussehen werden, wenn es nach Publishern geht.
LikeHike schrieb:
sachlichen Kritik zu tun sondern ist einfach eine blinde Abneigung gegen NVidia oder KI oder beidem zusammen.
[...] irrationale Ablehnung jeglichen technischen Fortschritts
Du meinst die "blinde Abnegung", dass das Beste was man mit der Technik zeigen konnte 1 zu 1 wie "AI Slop"/ Instagram Filter Wahnsinn aussieht? Yo, da liegt die gesamte Welt natürlich falsch und es sieht so gut aus, dass es keinen wirklich Massen-Backlash gab der groß genug war, dass selbst in Geld schwimmender CEO sich genötigt sah was zu sagen...
Fast so, als ob der "Fortschritt" den du meinst in vielen Bereichen keiner ist, sondern ein von einer Blase getriebener Wahnsinn, der mit der Realität, sei es finanziell, technisch oder logisch nichts zu tun hat. Und um dass hier noch mit nem Fakt zu unterlegen, letzter wissenschaftlicher Kenntnis-Stand z.B. was das Produktivitäts Plus durch "KI" angeht ist immer noch Null. "Fortschritt" kann man sowas also nicht wirklich bezeichnen.
Gerade der Punkt irrationale Ablehnung ist bei der aktuellen Daten-Lage nicht mal immer "irrational" sondern häufig konsequent: wie hat sich die Performance von Spielen noch entwickelt seit dem man das Trost-Pflaster Upscaling und Framegen drauf packen kann? Und wofür wird "KI" heute hauptsächlich verwendet? Gerade bei letzterem solltest du dringend mal googlen wie viel Slop aktuell generiert wird und das Internet wirklich stichwörtlich geflutet wird... Noch bevor wir bei den "KI" Produkten wie KI" Toaster, "KI" Bett, "KI" Reiskocher, "KI" Monitor, "KI" Waffeleisen etc. sind.
Mit solchen stark generalisierenden Aussagen wie du sie hier treibst sollte man sehr vorsichtig sein, da gerade die Technik Affinen Menschen sinnvollen Einsatz-Szenarien von "KI" definitiv nicht abgeneigt sein werden... Nur musst du diese halt auch mal präsentieren.
Leider ist vieles was "KI" wirklich sinnvoll und finanziell tragbar nutzt auch nicht Endkunden relevant.
Hautkrebs Erkennung z.B. sieht tatsächlich danach aus, dass es in Kombination mit einem Hautarzt sehr sinnvoll sein kann (sofern man nicht dunkle haut hat, dann geht die Fehler-Rate leider deutlich nach oben). Oder die Vorhersage von Molekülen für Medikamente. Oder das durchsuchen von den Peta-Bytes an astronomischen Daten oder oder oder
"KI" ist gekommen um zu bleiben. Aber dass heißt nicht, dass LLMs die finanziell nicht tragbar sind und technisch eine Sackgasse sind oder "KI" Slop ein sinnvoller Teil der technischen Entwicklung sind und genau da machen hier viele den Unterscheid, was man dem Lesen der Kommentare nach auch oft genau so entnehmen kann.
Statt hier aber immer negativ zu sein, könnte man auch mal positiv schreiben, dass erste Firmen die defacto Sackgasse LLMs verstanden haben und am nächsten großen Schritt von sinnvoller "KI" arbeiten: "World Models". Ohne die ist es quasi unmöglich aus den Daten der Eingaben effektiv Informationen zu ziehen, was dann auch dazu führt, dass eine LLM basierte "KI" Mrd. Datensätze brauch um irgendwie auch nur einen Hauch von Kohärenz zu präsentieren, während ein Geschöpf mit "World Model" aus nur eine Hand voll Versuche bereits selbiges erreichen könnte. Plus, die Verbesserung über mehr Daten wird ohne "World Models" natürlich auch sehr schnell sehr ausgeschöpft.
Natürlich muss sich bei den "World Models" noch zeigen, ob sie wirklich effektiver sind als LLMs oder ob es intern auch nur ein spezialisiertes LLM werden. Letzteres wäre nicht hilfreich, weil man dann wieder in die gleiche technische Sackgasse läuft wie ohnehin schon. Wenn diese aber sinnvoll werden... Und wir oben drauf noch rausfinden, wie man mehrere neuronale Netze unterschiedlicher Art effektiv miteinander vernetzen kann (was wir bisher leider noch nicht haben)... Dann könnte KI Wirklichkeit werden, die dann auch sinnvoller ist als die unendlich Ressourcen hungrigen Chinese Room Maschinen des 2020er.
Falls wer mehr wissen möchte, wieso World Models unabdingbar sind für die weiteren Fortschritte, Stanislas Dehaenes "How we learn" ist ein sehr guter Einstieg um zu verstehen wieso ein rein LLM basierter Ansatz von heute ausgeschöpft ist.