News Ende des Hypes: OpenAI stellt KI-Videogenerator Sora ein

Der Fluch des First Movers, kann Tesla so langsam ja auch ein Lied von singen
 
Zuletzt bearbeitet:
Zweite Sonja schrieb:
@Vorkosigan
Was genau ist schlecht daran, wenn auch das Militär eine KI nutzt?
Weil die es im Iran für sinnvoll erachtet hat eine Schule zu zerbomben, weil die datenlage zu alt war vielleicht? Und das ist vermutlich nur die Spitze des Eisbergs.

Außerdem ist dann am Ende die Frage: wer ist denn überhaupt verantwortlich? Am Ende lassen wir dann die ki eigenständig über Leben und Tod entscheiden? Wer darin keinerlei Probleme sieht sollte sich mal gründlich hinterfragen.
 
  • Gefällt mir
Reaktionen: Vorkosigan, Ichthys, Fyrex und 3 andere
War wohl zu teuer. Coding ist sicher billiger und die Zahlungsbereitschaft höher. Lukrativ vermutlich trotzdem immer noch nicht. Aber wenigstens verbrennt man etwas weniger schnell Geld.
 
@misterk87
Bei dieser Logik dürfte man aber nirgendwo KI einsetzen.
Wenn eine KI ein falsches medizinisches Ergebnis ausgibt und der Arzt es nicht prüft, kann es tödlich enden.
Genauso wenn eine KI eine falsche Kennzahl ausgibt, könnte eine Versicherung oder Behandlung nicht ausgezahlt werden und den Ruin mit Nachteilen für die gesamte Familien bedeuten.
Etc.

Und das trifft nicht nur auf KI zu, sondern alles, was das Militär jemals genutzt hat. Messer, Autos, Flugzeuge, etc.

Umgekehrt könnte man sagen, dass viele Fehlentscheidungen oder Eskalationen durch KI verhindert werden könnten und dadurch Menschenleben und Infrastruktur retten könnte.

Die Ursache liegt immer beim Menschen, nicht beim Werkzeug.
Deshalb sehe ich auch kein Problem darin, wenn das Militär eine KI einsetzt.
Und wenn ein Militär zur Verteidigung seines Landes eine KI einsetzt, werden die Bürger sicher auch kein Problem darin sehen, dass sie mithilfe von KI vor einem Aggressor geschützt werden.

Die Schuld muss man immer beim Menschen suchen, nicht beim Werkzeug.
 
Zweite Sonja schrieb:
Die Schuld muss man immer beim Menschen suchen, nicht beim Werkzeug.
Kannst du machen, nur wird keiner die Schuld denjenigen Zuschreiben.

Schon bisher hat das kaum Folgen für irgendwelche Verantwortliche gehabt, wenn ihre Ranz-IT Leben zerstört hat. "Software-Problem, kann man nichts machen."

Jetzt mit heuristischen Systemen, die per Design nicht debuged werden können, wird das auf ein ganz anderes Level gehoben.
Die mächtigsten KI-Tools befinden sich aktuell in der Hand von egoistischen Soziopathen, die von einer faschistischen Regierung hofiert werden. Da hat keiner an irgendwas Schuld.

Aber ist ja nicht so, dass die, die davor warnen (also konkret davor, nicht vor irgendwelchen SciFi-Rogue-KI-Hirngespinnsten) ständig und überall als fortschrittsfeindlich und wirtschaftsbremsend diffamiert werden.
 
  • Gefällt mir
Reaktionen: Bademeister69, Ichthys, derohneWolftanzt und 3 andere
Unter all den "KI" Unterfangen war dass Ding von Anfang an dass, was am ehesten verschwinden würde.
Selbst wenn man hier vor, nach und während der Generierung sowie vor und nach dem Konsum von Slop einen Werbeblock gesehen hätte, hätte es finanziell immer noch Verluste gemacht. Selbst wenn man die Monetarisierung auf das MAXIMUM gedreht hätte z.B. mit Anzeigen oben und unten zu jeder Zeit und dem Weiterverkauf aller Nutzer-Daten, wäre es letztlich wahrscheinlich immer noch sehr schwer gewesen mit dem Ding irgendwie Profit zu machen... Von daher überrascht mit die Einstellung überhaupt nicht.


Zweite Sonja schrieb:
Bei dieser Logik dürfte man aber nirgendwo KI einsetzen.
Du meinst, mit der Logik darf man "KI" nirgendwo einsetzen, wo nicht ein Experte noch mal eingehend auf die Outputs schaut. Und ja, genau dass ist das Kern-Problem der Technik in echten Anwendungen.

Denn wie der Beitrag den du hier über simplifizierst fragt dem lesen nach ernsthaft wer hier die Verantwortung hat und ob wir als Gesellschaft in die Situation rutschen wollen, dass etwas ohne Verstand und Denkprozess über Leben und Tod entscheidet.

Sowas ist eine absolut valide Frage und lässt sich nicht mit "ja" oder "nein" beantworten, da selbst mit Experten-Blick auf das Ergebnis der Prozess eine statistische Blackbox bleibt ohne wirkliche Möglichkeit der Überprüfung.

Zweite Sonja schrieb:
Umgekehrt könnte man sagen, dass viele Fehlentscheidungen oder Eskalationen durch KI verhindert werden könnten und dadurch Menschenleben und Infrastruktur retten könnte.
Rein hypothetisch ja. Rein praktisch aber nein. "KI" verstärkt Biases nur und die ersten Studien zu genau dem Thema sind alle samt genau zu dem Ergebnis gekommen, dass "KI" generell eher dazu neigt Konflikt Situationen zu verschlimmern z.B. den roten Knopf für Nukes zu drücken.

Was keinen überraschen sollte, besteht ein Großteil der Trainings-Daten doch auf dem Internet sowie geklauten Büchern die gerne mal fiktiv das "was wäre wenn" von Extrem-Situationen durchspielen. Und wo Menschen den Verstand haben, zu sehen, was schief läuft in diesen "was wäre wenn", hat "KI" diesen einfach nicht weil es nicht versteht was es kopiert hat.

Schlimmer noch weil es die Konsequenzen nicht versteht oder fühlt: wenn dir jemand sagt, bring mit einer Nuke 100.000 Menschen um, dann schluckst du, denkst und fühlst. Wenn du dass der "KI" sagst, dann macht sie es einfach weil sie dafür gebaut ist "Jasager" zu sein.


Generell halte ich deine Sichtweise hier,
Zweite Sonja schrieb:
Die Schuld muss man immer beim Menschen suchen, nicht beim Werkzeug.
für etwas naiv und über simplifiziert ohne Weitsicht auf tatsächliche Konsequenzen und Gründe.

Denn was du hier sagst, wenn wir das Argument zu Ende denken, dass der Mensch der von TikTok, Facebook & Co. abhängig wird, selbst die Schuld an seiner Abhängigkeit trägt... Auch wenn wir mittlerweile einwandfrei dokumentiert wissen, dass CEOs wie Zuck wissen, dass ihre Produkte schlecht für Kinder sind und diese trotzdem immer weiter "optimieren", für mehr Klicks, mehr "Engagement", mehr Screen-Time oder kurz, mehr Suchterzeugung.

Man merkt in der Realität also recht schnell, dass die "Schuld" einer speziellen Situation eben nicht "beim Menschen" liegt der das Produkt nutzt, sondern bei der Intention und der Kette hinter dem Produkt.

Erst wenn wir in die Meta-Ebene gehen und bei z.B. der real existierenden Social Media Sucht fragen, welcher Mensch denn hier die Verantwortung für diese Sucht hat, dann sehen wir recht schnell, dass Leute wie Zuck subjektiv "die Schuldigen" sein können, je nach Sichtweise.


PS: Am besten du liest mal etwas Cyberpunk und nimmst dir die Zeit über das Gelesene nachzudenken. All die Probleme der "KI" sind seit Dekaden bekannt und weil keiner der Machthaber aktuell sich für die Sozio-Ökonomische Betrachtung des Genres interessiert, sind wir nun da angekommen, wo eine fehlerhafte "KI" Analyse für den Tod für XXX Schüler und Lehrer verantworten kann. Die "Schuld" liegt, absolut nüchtern betrachtet, beim Tool, welches für den Einsatz nicht geeignet ist, bei den Anwendern, welche keinerlei Verstand oder Anstand haben sowie den Machern der "KI", die ihr Produkt, welches nicht für den Kriegs-Einsatz tauglich ist, freigegeben haben. Jeder in der Kette trägt Schuld und wen auch immer du subjektiv hier als "Haupt Schuldigen" ausmachen möchtest, es bleibt deine subjektive Ansichtssache die jemand anders wahrscheinlich auch anders sieht.
 
  • Gefällt mir
Reaktionen: Bademeister69, Ichthys, derohneWolftanzt und eine weitere Person
DonDonat schrieb:
Cyberpunk wie Neuromancer, ist doch für die Tech-Bros das gleiche wie 1984 für CDU- und SPD-Politiker: eine erstrebenswerte Utopie.
 
  • Gefällt mir
Reaktionen: Alphanerd
@Tevur Tevur hast du jetzt wirklich nix besseres zu tun als alte Zitate wiederzukäuen? Dein Vergleich mit 1984 und den Politikern ist auch ziemlich daneben, Cyberpunk und Neuromancer sind einfach nur coole Themen für Tech-Interessierte, keine Utopie.
 
Danke @kurgon181 , dass du meine Aussage so treffend untermauert hast.

Die Welt in Neuromancer ist genauso wenig "cooles Thema" wie Utopie.
Das sind gottverdammte Dystopien...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Alphanerd
Dieses Fahrzeug wird sich nie durchsetzen, ein Pferd ist völlig ausreichend

Dieses Internet wird sich eh nicht durchsetzen die Blase wird platzen


Immer wieder lustig
 
Zweite Sonja schrieb:
@misterk87
Und wenn ein Militär zur Verteidigung seines Landes eine KI einsetzt, werden die Bürger sicher auch kein Problem darin sehen, dass sie mithilfe von KI vor einem Aggressor geschützt werden.

Die Schuld muss man immer beim Menschen suchen, nicht beim Werkzeug.
Das ist schon alles sehr naiv ehrlich gesagt. Wer definiert denn was die Verteidigung des eigenen Landes ist? Wenn man Trump fragen würde, würde er das genau jetzt sagen. Oder auch putin. Argumente sind in dem Fall also obsolet. Der Punkt ist ja genau der: es wird an Autonomer ki gearbeitet und auch s ca in eingesetzt. Heißt: die ki entscheidet am Ende eigenständig über Leben und tot.
Ist doch auch super, dann ist am Ende niemand schuld.

Das ist genau das gleiche Argument der waffenlobby aus den USA: waffen töten nicht, sondern Menschen. Was soll man da noch argumentieren?
 
  • Gefällt mir
Reaktionen: derohneWolftanzt und Cyberbernd
Artikel-Update: Nun ist der Zeitplan bekannt. Die App- und Web-Version des KI-Videogenerators schaltet OpenAI am 26. April 2026 ab. Bei der API ist am 24. September Schluss.

Wer seine Sora-Inhalte sichern will, sollte das am besten bis zum 26. April über die App machen. Ob es danach noch eine Möglichkeit geben wird und wie lange diese besteht, ist noch nicht klar.
 
  • Gefällt mir
Reaktionen: BrollyLSSJ
Kaufmannsladen schrieb:
Und mir wurde gesagt, Sora würde in ein paar Jahren Hollywood ersetzen. :)
Tja selbst Schuld wenn man jetzt den Stecker zieht, natürlich wird der Markt viel Richtung KI Videos gehen.
Die Konkurrenz freuts
 
So richtig strategisch geplant wirkt das alles nicht, was OpenAI in letzter Zeit so tut. Irgendwie haben die aus ihrem Vorsprung nichts gemacht und jetzt rennt man Anthropic und anderen hinterher und schaltet panisch irgendwelche Services ab, weil das mit dem unbegrenzt Geld verbrennen anscheinend doch nicht ewig so weiter gehen kann
 
  • Gefällt mir
Reaktionen: butchooka, BacShea und Kaufmannsladen
BAR86 schrieb:
Tja selbst Schuld wenn man jetzt den Stecker zieht, natürlich wird der Markt viel Richtung KI Videos gehen.
Die Konkurrenz freuts
Das wird weder Kinotickets noch streamingabos verkaufen.

Ich sehe da abgesehen von Propaganda und tiktok Videos keine Zukunft drin.
 
  • Gefällt mir
Reaktionen: the_IT_Guy, Kaufmannsladen und Heavynator
Alphanerd schrieb:
Das wird weder Kinotickets noch streamingabos verkaufen.
das ist einfach falsch.
Warum sollte ein kreatives Projekt mit neuen Ideen keine Tickets verkaufen.
Nicht alle Leute stehen auf den immer gleichen Hollywood-Superhelden-CGI Unsinn.

Ich kenne nun schon einige Projekte, Schüler/Studentenprojekte oder einfach nur gute Geschichten/Ideen für Filme die damit wesentlich besser umsetzbar wären.
Auch hab' ich unter den vielen "AI Slop" auch schon wirklich witzige Dinge entdecken können.
Gibt halt auch wie bei Filmen Müll und Gutes.

Warum sollten die Leute dafür nicht ins kino gehen, sie gehen doch eh jetzt auch schon für CGI und Co ins Kino?
Alphanerd schrieb:
Ich sehe da abgesehen von Propaganda und tiktok Videos keine Zukunft drin.
Naja das liegt aber dann ehrlich gesagt daran, dass du dich mit den Möglichkeiten zu wenig auseinandergesetzt hast.
Ist Klar die Zukunft. Nicht exklusiv aber ein Teil davon
 
BAR86 schrieb:
Nicht alle Leute stehen auf den immer gleichen Hollywood-Superhelden-CGI Unsinn.
Deshalb gibt es schon seit immer tolle Indie Filme.
BAR86 schrieb:
Ich kenne nun schon einige Projekte, Schüler/Studentenprojekte oder einfach nur gute Geschichten/Ideen für Filme die damit wesentlich besser umsetzbar wären.
Seit sich mit einem iPhone filmen lasst, gibt es doch Möglichkeiten für alle die wollen.
BAR86 schrieb:
Naja das liegt aber dann ehrlich gesagt daran, dass du dich mit den Möglichkeiten zu wenig auseinandergesetzt hast.
Natürlich. Eines der 3 Standard "Argumente"
 
  • Gefällt mir
Reaktionen: the_IT_Guy, Conqi und misterk87
Zum Schluss wird wohl in fast allen Bereichen Google der Gewinner sein.
 
  • Gefällt mir
Reaktionen: the_IT_Guy, HOCLN2 und Kuristina
BAR86 schrieb:
Warum sollten die Leute dafür nicht ins kino gehen, sie gehen doch eh jetzt auch schon für CGI und Co ins Kino?
Weil ich für inkonsistente Kurzfilme nicht ins Kino gehe und dafür 15€ zahle
 
  • Gefällt mir
Reaktionen: Holzinternet
Zurück
Oben