News Echtzeit-Übersetzung in Skype als Vorschau verfügbar

elmex201 schrieb:
Mit Sätzen aus dem Schulbuch mag dass noch funktionieren. Zusätzlich sind Englisch zwei simple Sprachen. Bei Umgangssprache, Dialekten, komplizierten Sätzen und Redewendungen wird es wahrscheinlich nicht funktionieren. Interessant wird es wenn es auch Sprachen wie Russisch, Arabisch, Chinesisch etc. beherrscht.

Es wird nicht im Video gesagt – ist immerhin ein Werbevideo, daher hört man die nicht gerade sympathische Computerstimme auch erst spät im Video –, sollte aber jedem klar sein. Aktuell kann kein Übersetzungsalgorithmus einen menschlichen Übersetzer ersetzen. Aber, und das ist wichtig, es ist ein Anfang. Man darf nicht alles gleich verwerfen, nur weil es zu Beginn nicht schon perfekt ist. Außerdem ist selbst eine unvollkommene Übersetzung besser als gar keine. Ab und zu lasse ich mir asiatische, skandinavische oder osteuropäische Zeitungsartikel oder Phrasen vom Google-Übersetzer ins Englische übersetzen. Nach dem Lesen hat man mindestens eine Ahnung vom Inhalt des Artikels, bestenfalls eine stimmige Übersetzung. Für Menschen ohne freien Zugang zu Bildungsmitteln erschließen sich damit auch völlig neue Welten.

Das Ziel bleibt der klassische Star-Trek-Kommunikator. Ist noch ein ganzes Stück bis dahin, aber Kirks Mobiltelephon verwenden wir schon seit mehr als einem Jahrzehnt, die Tablets aus 2001 ebenso.

Bevor übrigens jemand den Untergang des Abendlandes prophezeiht, weil die Menschen dadurch keine Fremdsprachen mehr lernen würden: Das haben die Griechen bei der Erfindung der Schrift, durch die man den Verlust der Erinnerungskultur befürchtete, ähnlich gesehen.
 
Crycher schrieb:
aber alle sprachgesteuerte Geräte verlangen eine klare und deutliche Aussprache -> d.h. mehrmaliges Wiederholen bis man aufgibt...
Naja, Cortana versteht einen mittlerweile sehr gut. Bei der deutschen Version kann man nochmals quasi live die Verbesserungen und Anpassungen miterleben. Die englische funktioniert mittlerweile so gut, dass es manchmal fast schon unheimlich ist.
Eine ähnliche Verbesserung durch Nutzung (!) wird auch dieses Skype-Feature durchmachen.

Man muss auch mal anfangen und prinzipiell halte ich so eine Funktion für sinnvoll und auch spannend.

Werbung muss ohnehin keinen großen Sinn ergeben ;)
 
Ich finds irgendwie tragisch das die Englische Computerstimme immernoch so schrecklich blechern tönt während sich Spanisch doch irgendwie gut anhört.


johnripper schrieb:
Ich habe "Echtzeit-Überwachung" gelesen :freak:
naja.... falsch wärs ja nicht...


L 1 schrieb:
Ob wir das noch erleben werden? Spielen ohne Maus und Tastatur joystick etc...

ehem... OCZ hat vor Jahren schon den NIA (Neural Impulse Actuator) vorgestellt.
https://www.youtube.com/watch?v=FWo12rhz_TQ

Dann gäbs da noch Kinect oder Leap Motion.
 
Microsoft ist da echt speziell unterwegs mit ihren Übersetzungstools. Nett auch die Möglichkeit Text abzufotografieren und schon gibt es die Übersetzung. (nicht skype)
 
finde ich jetzt nicht sonderlich beeindruckend. ist ja "nur" Sprache erkennen und durch nen übersetzer jagen. Kann google auch (so halb).
Ich habe erst gedacht, der übersetzt das, und spricht es dann so aus, wie es die entsprechende Person machen würde. Also gleiche Stimme, Stimmlage,Lautstärke, Interpunktion... nur halt andere Sprache.
 
L 1 schrieb:
Auf jeden fall sehr interessant, kann man schon abschätzen wann es "relativ ausgereift ist" ? so das man fliessend spricht und übersetzt bekommt. 3-6 jahre oder 5-10 jahre?

Rechne bitte eher mit 10-20 Jahren.

Seit wann gibt es bereits Spracherkennung? Dragon Naturally Speaking kam bereits 1997 auf den Markt. Seit dem ist zwar viel passiert, aber selbst nach so vielen Jahren und 100-Fachen Leistungssteigerung der PCs hat die Software Probleme Sprecher ohne ein Training zu erkennen. Auch Dialekte, schlechte Aufnahmequalität, Sprachfehler, weggelassene Inhalte sind für so eine Software bis heute ein KO Kriterium.

In 17 Jahren hat der Mensch es also nicht geschafft der Maschine eine einigermaßen intelligente Spracherkennung beizubringen. Auch wenn die Cloud ganz andere Rechenmodelle möglich macht und viel mehr Informationen von vielen Menschen versammelt bleiben solche Tools vermutlich noch lange ein nette Spielerei und bestenfalls eine Hilfe wenn es nicht anders geht.

Man braucht sich doch heutzutage die automatisch übersetzten Texte in der Microsoft KB anzusehen. Dort ist gefühlt in den letzten 10 Jahren noch immer alles so unverständlich geblieben, dass man lieber auf den englischen Text zurückgreift, auch wenn man nur ein paar Worte in dieser Sprache kann.

Und nun soll in ein paar Jahren, Spracherkennung + Echtzeitübersetzung und Sprachsynthese funktionieren? Wunschdenken - mehr nicht!

Das eine Software mit solchen einfachen Dialogen wie in dem Werbevideo zurechtkommt, macht natürlich Hoffnung auf mehr. "Ich möchte bezahlen", "Woher kommst du", "Wie heißt du". Solche Begriffe kann ja bereits die Bing Übersetzer App seit langer Zeit in Zig Sprachen übersetzen, was natürlich schon hilfreich und auch beeindruckend sein kann. Bis man allerdings "richtige" Gespräche simultan übersetzen kann, vergehen vermutlich noch mehrere Jahrzehnte - wenn überhaupt. Schliesslig hat man selbst den Schachprogrammen bis heute keinen Deut Intelligenz beibringen können, das einzige was sie können ist tausende Möglichkeiten durchzuspielen und letztlich die Möglichkeit zu wählen die am Wahrscheinlichsten zum Gewinn führen wird und Sprache ist da noch wesentlich komplexer!

Wer sich da einen Überblick verschaffen möchte, sollte sich mal die Wikipedia Artikel zu Dragon und Spracherkennung im allgemeinen durchlesen.
http://de.wikipedia.org/wiki/Dragon_NaturallySpeaking
http://de.wikipedia.org/wiki/Spracherkennung
 
Zuletzt bearbeitet:
10-20 Jahre halte ich auch für realistisch, aber vielleicht hejt doch noch ein paar Jährchen früher...

Denn, wenn wir mal die ganze NSAKGBBNDMOSSAD-Paranoia und den nur noch nervigen Datenschutz bei Seite schieben, ergeben sich ja alleine durch die potentielle Menge an Sprechern (Windows X, Skype, Mobil...) eine vielfach grössere Quelle für die Analyse und Aufbereitung in den Datenzentren.
Ich glaube es wäre in Sachen computergenerierter Sprache sehr sinnvoll, wenn die großen Unternehmen sich irgendwie auf einen gemeinsamen Standard einigen können (Was ja, soweit ich gelesen habe, wohl auch bei Cortana und Siri einen Anfnag wagend gemacht wird - gleiche Quellen)

Bis irgenwelche Dialekte, Umgangssprache oder gar temporäre Sprachunfähigkeit (Alkohol) durch solche Systeme gemeistert werden, werden aber wohl wirklich noch min. 20 Jahre ins Land ziehen. Aber vielleich ist das auch gar nicht so schlimm, und die Sprachsysteme von Apple, Google und MS retten am Ende noch Sprachkultur, indem sie den jungen Generationen ein vernünftiges Mundwerk antrainieren, da sonst nichts mehr am Rechner so funktioniert wie es soll...:D
 
Ehr uninteressant, wenn Menschen mit einen Computer-künstliche Intelligenz reden müssen,anstatt miteinander zu kommuniziere, wo Worte und Gesten viel mehr aussagen,traurig das wir immer mehr verdummen und sowas noch unterstützt wird.

Wo die meisten Menschen doch heutzutage mindestens zwei Fremdsprachen beherrschen und einige auch mehr, Gastronomie /Hotel, Flugwesen usw.
 
Ich kann mir schon die Enttäuschung und schlechten Bewertungen von Bayern, Ossis, Saarländern, Berliner, etc vorstellen, weil die Wörter nicht erkannt werden. :D
Natürlich wird dann Microsoft schuld sein, weil es kein schlechtes deutsch kann sondern nur hochdeutsch.

"Fenster obe zian"
"schließ des Rollöu"
"hab ike net gesagt"
Oder wir auch immer Deutsche nicht deutsch sprechen können. :)
Lustig ist auch wie alle behaupten, dass wenn die wollen, wirklich hochdeutsch sprechen können, aber beim seltenen Versuch dennoch scheitern oder wie frisch eingereiste Ausländer klingen. :D

Kurz:
Eine gute Spracherkennung muss von sehr vielen Menschen genutzt und damit weiterentwickelt werden, um auch alle Sprachfehler oder Dialekte zu erlernen.
Wer kein hochdeutsch kann und lieber wartet bis es möglich ist, wird wohl nie im Leben dazu kommen, weil es der Spracherkennung eben niemand "beibringt".
 
Super! Dann kommt also doch der Bubblefish aus Per Anhalter durch die Galaxis :D
 
Finde ich schon geil, bin mal gespannt wie die das umsetzen und ob das nachher auch richtig funktioniert.
 
Das beste an der Funktion ist wohl der große potentielle Kundenkreis und die damit einhergehende Einschulung des Algorithmus. Bisherige Sprachübersetzungssoftware hat wohl einen halbwegs überschaubaren Kundenkreis. Daher dürfte das Anlernen von Dialekten und individuellen Sprachunterschieden vom relativ großen Skype-Kundenkreis profitieren.
 
L 1 schrieb:
Ob wir das noch erleben werden? Spielen ohne Maus und Tastatur joystick etc...

Ich glaube wenn, dann wird das nicht über Sprachsteuerung gelöst, sondern durch andere Peripheriegeräte und irgendwann durch (teilweise) Gedankensteuerung ersetzt.

Sprachsteuerung ist einfach zu langsam und fehleranfällig bei einigen Spielen, die viel Präzision und geringe Reaktionszeit benötigen (Shooter, MOBAs, Rennspiele, etc.). Bei RPGs kann ich mir das aber tatsächlich gut vorstellen ;)
 
Zuletzt bearbeitet:
Das ganze fördert nur die Sprachbariren. Wenn ich mal übertreibe: Wozu soll ich denn jetzt noch englisch können, wenn mir alles in Echtzeit in die richtige Sprache übersetzt wird?
 
Wird bei uns sicherlich von den ganzen Datenschutzfreaks verboten, die meinen für alle sprechen zu müssen.
 
Gandalf2210 schrieb:
finde ich jetzt nicht sonderlich beeindruckend. ist ja "nur" Sprache erkennen und durch nen übersetzer jagen. Kann google auch (so halb).
Ich habe erst gedacht, der übersetzt das, und spricht es dann so aus, wie es die entsprechende Person machen würde. Also gleiche Stimme, Stimmlage,Lautstärke, Interpunktion... nur halt andere Sprache.
Ich sehe deine Postings schon vor mir, wenn wir auf dem Mars laden.

"Finde ich ja nicht sonderlich beeindruckend. Ist ja nur der Mars. Das konnte Curiosity ja auch (so halb). Ich habe erst gedach, die landen auf dem Kepler 10b. Also gleich Exoplanet mit Terra-Forming und Besiedlung und so."

Warum immer gleich so pessimistisch? Ist doch schon ein schöner Fortschritt, wenn es so laufen würde wie in dem Video. Spracherkennung und eine sinnvolle Übersetzung sind schon kompliziert genug. Wenn das vernünftig klappen würde, dann wäre das schon ein echter Erfolg.
Im Übrigen sind auch die Features, die du erwähnst teilweise enthalten. Die Sprachsynthese versucht jedenfalls in etwa die Stimme des Sprechers nachzuempfinden, soweit mir bekannt ist.


basti2k schrieb:
Das ganze fördert nur die Sprachbariren. Wenn ich mal übertreibe: Wozu soll ich denn jetzt noch englisch können, wenn mir alles in Echtzeit in die richtige Sprache übersetzt wird?
Ja. Ich bin mir auch nicht so sicher, ob das immer so eine tolle Sache ist. So faul wie die Menschheit ist wird in Zukunft wahrscheinlich gar keiner mehr eine Fremdsprache mehr lernen, wenn das die Programme immer für einen übernehmen werden.

Das führt dann auch dazu, das die Mädels etwas blöd aus der Wäsche gucken dürften, wenn sie sich tatsächlich mal in Russland treffen sollten und auf einmal feststellen, dass sie sich nur noch per Zeichensprache verständigen können.
 
Zuletzt bearbeitet:
Sehr schönes Marketing um die Abschrift von Sprachtelefonaten hoffähig zu machen.
 
xexex schrieb:
In 17 Jahren hat der Mensch es also nicht geschafft der Maschine eine einigermaßen intelligente Spracherkennung beizubringen. Auch wenn die Cloud ganz andere Rechenmodelle möglich macht und viel mehr Informationen von vielen Menschen versammelt bleiben solche Tools vermutlich noch lange ein nette Spielerei und bestenfalls eine Hilfe wenn es nicht anders geht.

Das liegt vor allem daran, dass das menschliche Gehirn mit viel Weltwissen (also alles, was man weiß, was im Gehirn abgelegt ist) fehlende Inhalte in einer Aussage auffüllen und ergänzen kann. Und selbst wenn man einen Computer mit so viel Weltwissen und genug Rechenpower hätte, gäbe es so weit ich weiß noch keinen Algorithmus dazu, wie man dieses immense Hintergrundwissen innerhalb von Milisekunden richtig auffinden und anwenden könnte.

Das Schwierige an der natürlichen Sprache sind nicht lange Sätze aus Büchern - was uns Menschen vielleicht "schwer" vorkommt - sondern gerade die verkürzten Sätze der Umgangssprache "Hey Alder, haste den Dings gestern gesehen, weißt schon, der von neulich!" "Ach stimmt, der!" ... und das bring dann mal dem Computer bei... :p
Ergänzung ()

TuEsOdErLaSsEs schrieb:
Wo die meisten Menschen doch heutzutage mindestens zwei Fremdsprachen beherrschen und einige auch mehr, Gastronomie /Hotel, Flugwesen usw.

Also ich bin immer wieder erstaunt, wie viele Menschen auf der Welt anscheinend nicht mal Englisch können. Und zwar kein Wort!
Am meisten hat mich das mal in Madrid überrascht: Englisch? No Senor! Vielleicht hatten die da auch einfach keinen Bock drauf (wie die Franzosen)
Aber man tut sich dort, in einer europäischen Weltstatdt, wirklich sehr schwer, wenn man kein Spanisch spricht... anscheinend findet man ja aber inzwischen sogar in den USA immer mehr Menschen, die kein Wort Englisch sprechen.
Ein Kollege erzählte mir, dass er kürzlich in Florida keine einzige Tankstelle gefunden hat, in der jemand Englisch konnte.
 
Zuletzt bearbeitet von einem Moderator:
So schlecht scheint die Dragon Naturally Speaking 13 Software auch nicht zu sein, wenn es Journalisten nutzen...

https://www.youtube.com/watch?v=ImlKOA1MhlI

Und scheinbar kommen viele User nicht damit klar, dass es technische Probleme/Herausforderungen gibt, die zu anspruchsvoll sind um sie in paar Monaten zu lösen. Ich willst jeeettzttzttz haben und niscchhh morrgäännn - wenn jetzt nischhht funktioniert dann wird es nieeeee funktionieren!!!1!! Brauchen wirrrrr allös nüschttt!
 
Zuletzt bearbeitet von einem Moderator:
gibt's auch ne Übersetzung von Sächsisch,Bayerisch auf Norddeutsch :D
 
Zurück
Oben