Lokale automatische Generierung von Untertiteln? AI vielleicht?

Shader schrieb:
Zeiten von Streaming ändern sich die Gegebenheiten wieder, wie bindet man da andere Untertitel ein? K.A.
Was meinst du?
Bei den Anbietern, wie Netflix und co. gar nicht. Die werden von Server geliefert.
Bei Plex und Jellyfin usw., da sind sie entweder im Container oder du kannst sie als extra File, meistens in den gleichen Ordner, packen und der Rest macht die Software.
 
  • Gefällt mir
Reaktionen: Shader
@Shader Wenn ich das richtig verstehe benutzt SubSync die herkömmlichen Methoden Audio zu transkribieren das wiederum dann zum Abgleich genutzt wird mit der untertiteldatei!?
Entsprechen die transkribierungen auch nur annähernd der Qualität die heutige KI Tools liefern?
Und da ist ja noch keine automatische Übersetzung mit dabei oder?

Der Knackpunkt ist ja die Zusammenarbeit der einzelnen Schritte/Tools.

-Zuerst muss ja ein Audio zu Text mitschnitt erfolgen.
Sammt Zeitindex.

-Dann muss dieser mitschnitt in ein lesbares Format gebracht werden. Was meiner Meinung nach erst seit deepl so richtig möglich ist da es zusammenhänge erkennt und aus dem teilweise Kauderwelch (den man zb oft bei automatischen YT transkribierungen beobachten kann) sinnvolle Texte erzeugt.

-Dann muss dieser Text wiederum sinnvoll übersetzt werden.
 
  • Gefällt mir
Reaktionen: Azghul0815
@samuelclemens

SubSync ist simpel, man wählt eine Videodatei (z.B. .mkv) aus, die Sprache und eine Untertiteldatei (.srt).
Dann kann man einstellen wie weit in die Videodatei die Software schauen soll um Offsets zu analyisieren für ein besseres Korrekturergebnis, was bis 120min geht.
Dann klickt man auf Start und bekommt eine neue Untertitel-Datei. Kürzlich für Z for Zachariah z.B. getan, hat vll. insgesamt 3min gedauert und hab bis 100min für die Analyse geschaut. Die neue Untertitelspur war auch gut synchron.

Es erstellt keine neue Sprache oder dergleichen (soll aber angeblich möglich sein), es löst wirklich nur automatisch Offsets zwischen einer Videodatei (z.B. mkv) und Untertiteldatei. Bei einem Film hat's bisher nicht funktioniert aber kann sein das ich beim Analysevorgang zu sehr gespart habe.

Die Anwendung wird jedoch nicht mehr weiter gepflegt und entwickelt, deshalb hab ich auch den Thread gestartet.
 
  • Gefällt mir
Reaktionen: samuelclemens
samuelclemens schrieb:
Naja, eine andere Idee wäre, wie gesagt, das Audio oder Videomaterial in hunderte oder tausende winzige Clips per Client zu zerstückeln, mischen und damit den externen Server füttern. Das Puzzle kann dann nur der eigene Client zusammensetzen.
Stell ich mir schwierig vor. Weil wenn Du irgendein Anbieter nutzen willst, dann muss man sich ja da üblicherweise Registrieren usw. Und das Ganze willst Du dann für hunderte oder gar tausende von Anbietern machen? Die dann auch noch das selbe Protokoll sprechen müssen!
Mal davon abgesehen, das Märkte ja zur Konsolidierung neigen und man am Ende in einem Segment oft nur wenige Player hat.

samuelclemens schrieb:
Mit verschlüsselt meinte ich aber eher das die Files vor und nach der Bearbeitung auf dem Server verschlüsselt gelagert werden. Somit wäre man wenigstens vor Leaks etwas geschützt.
Wenn es auf dem Server verschlüsselt wird, liegt der Schlüssel ja daneben und die Chance das der bei einem Leak mit geleakt wird ist recht hoch.

samuelclemens schrieb:
Natürlich ist es dann immer noch eine Vertrauensfrage zum Betreiber der Server.
Und zwar summiert. Da Du ja in Deiner Idee nicht einem Betreiber vertrauen musst, sondern ganz ganz vielen.
Die sehen dann zwar nur ein Ausschnitt aber der kann ja schon problematisch genug sein. Möglicherweise sogar problematischer als wenn man den Kontext kennt.

Shader schrieb:
Wäre übrigens super, wenn man bei solchen Produktnennungen mal ein Link dran packt. Insbesondere wenns ein eher generischer Begriff ist. Denn wenn man danach sucht, findet man sehr viele Ergebnisse die auch nicht wirklich was miteinander zu tun haben.
 
Zurück
Oben