Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsDeepL: Echtzeit-Sprachübersetzung mit Voice-to-Voice nun Realität
Das KI-Übersetzungstool DeepL hat mit DeepL Voice-to-Voice eine neue Produktreihe vorgestellt, die eine Sprachübersetzung in Echtzeit per mündlicher Kommunikation ermöglicht. Der Einsatz ist insbesondere in virtuellen Meetings vorgesehen, sodass Teams weltweit mühelos über Sprachbarrieren hinweg zusammenarbeiten können sollen.
Konkret, was kostet das, falls ich das nutzen will, nachdem wir per "kostenlosen Testzeitraum" angefixt wurden?
Geht das auch mit Android-Phone per mini funk-mikros?
@Thares kommt darauf an was Du beabsichtigst Eine Kultur verstehen, mehr teilnehmen an dem sozialen Austausch und Verständnis, wird vermutlich noch sehr lange das erlernen einer Sprache erfordern. Ein effizienter Informationsaustausch vermutlich nicht
Wie sind so eure Erfahrungen mit DeepL? Gefühlt hat die Qualität der Übersetzungen abgenommen.
In letzter Zeit ist es mir hier und da mal passiert, dass er einen Nebensatz dazu erfindet. Einzelne Wörter, deren Übersetzung eigentlich eindeutig ist, werden manchmal komplett falsch übersetzt. Das kriegt Google Translate besser hin.
Ich kann mich nicht erinnern, dass das bei den frühen Versionen der Fall war.
Das ist auch bitter nötig. KI wie Claude machen nämlich die Kernfunktion des DeepL-Übersetzers langsam überflüssig. Ich habe bei meiner Arbeit schon festgestellt, dass die Übersetzungen von Claude dank der Kontextisierung deutlich besser an dem von mir gewünschten Ergebnis sind, als es bei DeepL der Fall ist.
Sowas würde ich ja gerne mal testen. Ich finde schon deren Dokumenten-Übersetzer sehr nice.
Ich habe kürzlich viel mit chinesischen Dokumenten hantieren müssen.
Da meine Sprachkenntnisse in dem Bereich rudimentär gar nicht vorhanden sind war ich erstaunt wie entspannt ich den Krempel (technische Unterlagen mit diversen Formatierungen) einfach übersetzen lassen konnte und das Ergebnis absolut brauchbar war.
Es war alles absolut verständlich und zudem auch noch sehr akkurat formatiert.
Eine interessante Frage wäre wohl auch wie man überhaupt eine Sprache erlernen soll/kann in einer Welt wie Star Trek wo praktisch jedermann sowas wie einen implantierten Universal Translator hat. Man müsste wahrscheinlich per Gesetzt ein Mindestalter für solche Geräte einführen oder explizit eine Wahl Muttersprache vorher erlernen bevor man es nutzen kann oder darf.
Und wie kann man mit jemandem in seiner Muttersprache reden wenn der translator fortwährend alles in die eigene übersetzt.
Aber davon sin wir ja noch ein ganzes stück entfernt.
Zum einen wird es wahrscheinlich nicht offline ohne server funktionieren, also bedingt tauglich für vetrauliche Firmeninterna. Zum weiteren wird es ja nur über kommunikationgeräte hinweg funkionieren. Also kein Face to Face.
Dafür würde man schon sowas wie InEars mit ki noisecancelling bei allen Teilnehmern benötigen das die Original ausgesprochenen Worte intelligent rausfiltert und durch die übersetzung mit der originalstimme ersetzt.
Außerdem müsste man das Problem mit der Lippensynchronität lösen.
Wie sind so eure Erfahrungen mit DeepL? Gefühlt hat die Qualität der Übersetzungen abgenommen.
In letzter Zeit ist es mir hier und da mal passiert, dass er einen Nebensatz dazu erfindet. Einzelne Wörter, deren Übersetzung eigentlich eindeutig ist, werden manchmal komplett falsch übersetzt. Das kriegt Google Translate besser hin.
Google Translate ist eine Katastrophe und eignet sich allenfalls für „Amerikanisch“ DeepL ist gut für British English, obwohl ich beides nicht mehr nutze.
Ich empfehle Grok, den man in den Profileinstellungen nicht nur auf die Sprache, sondern auch auf Dialekt einstellen kann. In meinem Fall „Formal Aussie English“, das verwandt zu British English ist, sich aber deutlich vom Amerikanischen „English“ aka Amerikanisch, unterscheidet, da wir oft nicht mal dieselben Worte benutzen.
Einfach „Translate:“, Text dahinter und gut. Am Ende kommt etwas Professionelles heraus. Zudem kann Grok das auch noch, wenn ich ihm das diktiere. Da spart man sich gleich die Sekretärin.
Die Technologie der traditionellen Übersetzer neigt sich dem ende entgegen. Es ist nur noch eine Frage der Zeit, bis es ein passendes Ohrstück gibt, das mithört und in Echtzeit übersetzt. Wenn mein gegenüber dann auch sowas hat, kann man mit jedem kommunizieren.
In spätestens zehn Jahren sind wir so weit, vermutlich früher.
@LakeMac das gibt es tatsächlich schon. Weiß nur nicht, wie gut die Quali ist. Da kann man dem Gegenüber einen von den Stöpseln geben und man behält selbst einen. Dann spricht man und es übersetzt für den Gegenüber in sein Ohrteil.
@LakeMac das gibt es tatsächlich schon. Weiß nur nicht, wie gut die Quali ist. Da kann man dem Gegenüber einen von den Stöpseln geben und man behält selbst einen. Dann spricht man und es übersetzt für den Gegenüber in sein Ohrteil.
Interessant wird es für mich, wenn es durch die AI perfektioniert wurde. Mandarin könnte ich gut gebrauchen, da wir einige Kunden haben, und das in Zukunft noch mehr werden wird. Die Sprache ist Hölle und ich kann nur schriftlich, durch Grok mit ihnen in Kontakt treten.
Eine interessante Frage wäre wohl auch wie man überhaupt eine Sprache erlernen soll/kann in einer Welt wie Star Trek wo praktisch jedermann sowas wie einen implantierten Universal Translator hat.
Das ist die gleiche Logik, wieso viele Menschen immer noch Zeichnen lernen wollen, obwohl es schon lange Fotoapparate und mittlerweile auch KI-Bildgeneratoren gibt:
Interesse an der eigenen Weiterentwicklung und der Spaß dabei (ja, manchen macht sowas Spaß!)
This!
Man darf nicht vergessen, dass durch komplett unterschiedlichen Satzbau, oft der ganze Satz bekannt sein muss um korrekt zu übersetzen. Sieht man auch bei Live-Transkription, dass Sätze sich dann öfters anpassen mit fortschreitender Länge. Das geht so im gesprochenen gar nicht. Und wenn ich mir heute menschliche Simultan Übersetzung anhöre, denk mich schon oft "hoppla, das hat der jetzt so aber nicht (in Englisch) gesagt". Diese Grenze hat eine KI auch in gewisser Weiße.
Dennoch kann das ein Meilenstein in der Verständigung sein. Natives Sprechen wird aber vermutlich noch sehr sehr lange überlegen bleiben.