News Ende des Hypes: OpenAI stellt KI-Videogenerator Sora ein

misterk87 schrieb:
Ja aber genau das ist ja das Problem: es wird eben daran gearbeitet bzw passiert es schon, dass die ki eben nicht überprüft wird und autonom Entscheidungen trifft. Darauf wollte ich hinaus.
Das ist aber im erwähnten medizinischen Bereich ebenfalls so.

Wenn die Maschine bestimmte Werte ausgibt, werden sie vom Arzt hingenommen und auf Basis dieser Werte die Behandlung vorgenommen. Genauso wie in sehr vielen anderen Bereichen bei der Qualitätskontrolle, nehmen Maschinen, Software, KI die Bewertung vor und drücken es in einer Kennzahl, Farbe oder Begriff aus. Der Mensch verlässt sich auf das Ergebnis. Man könnte es prüfen, aber aus wirtschaftlichen Gründen auch unterlassen. Je nach Risiko.

So wie auch von anderen erwähnt, muss das Ergebnis einer Maschine / KI beim Militär ebenso wie in allen anderen Bereichen geprüft werden. Eine Unterlassung ist die Entscheidung eines Menschen. Also wird immer der Mensch schuld bleiben und nicht die KI.

Ein KI-Gerät, was mit Wärmebild auf alles schießt, was warm ist, ist nicht die Schuld der KI, sondern nur des Menschen, weil dieser das Gerät bewusst platziert und aktiviert hat.
In anderen Fällen könnte die KI aber so weit entwickelt sein, dass sie weniger Fehler als der Mensch macht und somit wäre es eher fahrlässig, einen Menschen die Entscheidung treffen zu lassen.
Falls die Entscheidung falsch war, könnte man zwar sagen, dass es die KI war, aber wenn man einen Menschen eingesetzt hätte, wären mehr Entscheidungen falsch gewesen. Deshalb sind weniger Fehler durch KI besser als mehr Fehler durch Menschen.


Bei der Schuldfrage bleibt es dabei:
Wenn der Mensch einen Fehler macht, ist er direkt schuld.
Wenn eine KI einen Fehler macht, ist der Mensch indirekt schuld, weil er die KI einsetzt.

Kurz gesagt:
Pauschale Aussagen bringen nichts.
Wo die KI schlecht ist, muss der Mensch kontrollieren.
Wo der Mensch schlecht ist, muss die KI kontrollieren.
Das Optimum ist aber immer eine Kombination.

Leider gibt es viel zu häufig nur eine Schwarz-Weiß-Ansicht über KI.
Die Realität ist aber immer irgendwo dazwischen und mit der Zeit und Entwicklung entwickelt sich eine Tendenz.
 
  • Gefällt mir
Reaktionen: diedl
Zweite Sonja schrieb:
Genauso wie in sehr vielen anderen Bereichen bei der Qualitätskontrolle, nehmen Maschinen, Software, KI die Bewertung vor und drücken es in einer Kennzahl, Farbe oder Begriff aus.
Ich hoffe, die Menschheit ist noch nicht vollends so verblödet, für Probleme, die problemlos von Maschinen deterministisch BERECHNET werden können, eine KI ein Ergebnis heuristisch generierenzu lassen.

Zweite Sonja schrieb:
In anderen Fällen könnte die KI aber so weit entwickelt sein, dass sie weniger Fehler als der Mensch macht
Ah, da muss ich einfach nur dran denken, in den Prompt zuschreiben, dass es weniger Fehler als Menschen machen soll?
Zweite Sonja schrieb:
Pauschale Aussagen bringen nichts.
Wo die KI schlecht ist, muss der Mensch kontrollieren.
Wo der Mensch schlecht ist, muss die KI kontrollieren.
Das Optimum ist aber immer eine Kombination.
Nee, wo KI schlecht ist, sollte sie nicht eingesetz werden.
Wo der Mensch schlecht ist, sollte er die Finger von lassen und Tiere streicheln gehen.
 
Tevur schrieb:
Bla Bla Bla.

Du laberst von Dummheit und Ignoranz und meinst damit nur die anderen, während du hier eine Zukunftsvision herbeiifantasierst die technisch einfach nicht möglich ist, ohne den kompletten Planeten zu verbrennen.
Was ist denn das für ein Blödsinn, woher hast du das?
Tevur schrieb:
In 10 Jahren? Da haben wir fliegende Autos
Fliegende Autos gibt's schon ;)

Tevur schrieb:
Einfach nur realitätsfremde SciFi-Fantasie.
Wieso informierst du dich nicht einfach? "KI" erstellte Videos gibt es schon heute...
Ergänzung ()

Alphanerd schrieb:
@BAR86 natürlich sind andere dumm und ignorant. Habe da nix anderes erwartet.
Hast du denn ein Gegenargument zu den von mir genannten Einsatzszenarien?
 
CDLABSRadonP... schrieb:
Gerade Videogenerierung bzw. Transformierung war eines der vielversprechendsten Felder. Mein Lieblingsbeispiel:

Das ist ja mehr Albtraum als verheißungsvolle Zukunftsvision.

Sowas trägt sich vielleicht als kurzer Gag in einem Kurzvideo auf Youtube, à la "So hätte Terminator 2 mit Sylvester Stallone in der Hauptrolle ausgesehen".

Aber für so einen Quatsch aus der Dose löst doch kein Filmfan ein Kinoticket 😂

Oh Gott, wenn die AI-Bros und Tech-Fuzzis tatsächlich so denken, erklärt das natürlich einiges.

Alleine die Annahme, man könnte die Genialität eines Oscargewinners wie Roger Deakins hinter der Kamera mal eben so mit einem dummen Bildgenerator replizieren, geschweige denn die ganzen kreativen Prozesse und Entscheidungen am Set, die Dispute und Diskussionen, eben all das, was am Ende ein richtiges Meisterwerk hervorbringt 🤮
 
  • Gefällt mir
Reaktionen: Alphanerd
BAR86 schrieb:
Hast du denn ein Gegenargument zu den von mir genannten Einsatzszenarien?
Muss mir unter den ganzen Beleidigungen entgangen sein, dass da ein Inhalt war.
 
  • Gefällt mir
Reaktionen: Kaufmannsladen
Ich frage mich bei solchen Entwicklungen, wie den verschiedenen Video-Generatoren, eigentlich immer, WER das alles konsumieren soll - und auch wann. Gut, ich gehöre jetzt nicht mehr zur TikTok-Zielgruppe, aber selbst junge Menschen können doch nicht 24/7 irgendwelche Videos anschauen. Und dann ist auch noch der überwiegende Teil von dem, was da generiert wird, von geringer oder gar keiner "Qualität".

Man müsste es mal ausrechnen (oder von einer KI ausrechnen lassen), wie viele KI-Videos gleichzeitig generiert werden müssten, um mit absoluter Sicherheit mehr zu produzieren, als sich alle potentiellen Viewer jemals anschauen können.

Das ist natürlich nicht völlig ernst gemeint, aber es ist schon ein Thema: Wenn deutlich mehr produziert wird als konsumiert werden kann, dann beginnt doch zwangsläufig die Verdrängung gleich auf mehreren Ebenen: 1. bei den Generatoren (Menschen), 2. bei den Tools (KIs) und 3. bei den Inhalten.

Am sinnvollsten wäre natürlich eine Verdrängung von "schlechten" Inhalten durch "gute" oder "bessere".
Aber so funktioniert der Consumer-Markt ja leider nicht.
Deshalb wird einfach immer mehr Mist produziert und dann müssen eben stattdessen die KI-Generatoren sterben. Man braucht einfach nicht unbegrenzt viele davon. Und mit etwas Glück bleiben am Ende nur die "Besten" übrig. Ob die dann wirklich "gut" sind, ist eine andere Frage. Zum einen orientiert sich deren Beantwortung vor allem am gerade aktuellen "Geschmack" und zum anderen auch an Marketing und wirtschaftlich/politischem Druck, der ausgeübt wird. Die älteren von uns werden sich noch an den sogenannten Formatkrieg (VHS vs. Beta etc.) erinnern.

Und die noch nicht so alten denken dabei vielleicht an die Macht von Elon Musk und Co., die im Grunde jedes beliebige Medium kaufen und nach ihren Wünschen ausrichten können und das auch tun.
 
Zurück
Oben