News LG-Smartphone reagiert im Ruhezustand auf Sprachbefehle

Sprachsteuerung setzt sich erst großflächig durch wenn:

1. die Erkennungssoftware mind. genausogut wie ein Mensch funktioniert, d.h. den Sinn des Satzes hört und nicht die Wörter an sich. Das wird in Ansätzen schon gemacht aber da sind wir noch Welten entfernt. Selbst eine 5% Fehlerquote ist unerträglich in der Praxis, wir müssen hier wohl in den Promillebereich.

2. stille Sprachsteuerung: Sensoren zur Muskelerkennung müssen verkleinert werden damit es nicht stört. Man spricht dann "lautlos" mit dem Gerät, aktiviert aber den Muskel. Funktioniert heute schon, aber die Sensoren sind nicht Alltagstauglich.

Solange dies nicht der Fall ist wird es Nischenanwendungen geben wie Diktiersoftware (mit Training) oder Unterhaltungselektronik wo man keine Perfektion erwartet und nur kurze Befehle gibt.
 
Imo Verschwendung der Entwicklungsressourcen.
Hat man ja an Siri gesehen, dass Sprachsteuerung nicht von der breiten Masse angenommen wird. Und Siri hatte damals wirklich einen hervorragenden medialen Start, war überall im Munde, wurde überall für gut befunden.
Nur benutzen tuts heutzutage trotzdem kaum jemand...
 
ReaperBLN schrieb:
Wenn es dann mal einer benutzt, denkt man immer gleich er oder sie redet mich sich selbst und die Blicke der umherstehenden Passanten sind Gold wert. :p
Erinnerst du dich noch an die 90'er als die ersten Handys auf den Markt kamen?
Da wurde man auch doof angeguckt, wenn man auf der Straßen mit sich selbst redete. Da drehte man sich auch noch zu jemandem um, wenn dieser "Hallo" sagte.

Das gleiche Phänomän trat vor kurzem erst wieder mit den Bluetooth Headsets auf. Man war es so gewohnt, dass die Leute ein Handy in der Hand hielten, dass man die Leute für geisteskrank hielt, die in der Bahn ohne Handy vor sich hin brabbelten. Mittlerweile ist auch das normal geworden.

Ähnlich wird es auch bei Spracheingaben in der Öffentlichkeit sein oder aber auch bei Dingen wie den Google Glasses. Man wird immer zuerst doof angeguckt und nach einer Weile gehört es zum Alltag.
 
@noxon

Klar der Mensch gewöhnt sich an alles, aber bis es wirklich so weit ist das man sagt Sprachbefehle/Eingaben sind so weit vergeht noch einige Zeit. Ich kehe mal von noch min. 7-8 Jahren aus.
 
Eine gute Sprachsteuerung ist mit dem Gesamtprodukt behindertengerecht.
Weder LG Kühlschränke oder Staubsauger sind für diese Zielguppen entwickelt. Das nun nicht behinderte Menschen angewiesen werden faul und dumm zu werden, zeigt durchaus die Pläne der Großkonzerne.
Dabei sind die Produkte selbst nicht mal bedürfnisgerecht. Viele Menschen kommen selbst ohne Rechtschreibkorrektur nicht mehr zurecht. Dabei wäre eine gute Rechtschreibkorrektur mit zusätzlicher Fremdsprachenerkennung bei der Kommunikationsüberwindung brauchbar.

Wenn aber LG von einem Sprachsteuerungs Durchbruch wie bei der Touchsteuerung ausgeht, was eine glatte Lüge ist, weil sich nur die Oberflächenbedienung mit dem Einsatz von mninderwertigen Kapazitätsbildschirmen geändert haben, so ist LG nur ein weiterer Mischkonzern der nur groß Müll verkaufen will, statt bedürfnisgerecht zu entwickeln.
 
An die Behinderten habe ich nicht gedacht. Für sie mag das vorteilhaft sein.
Das ist aber auch der einzige Grund, warum ich sowas gut finde.

Sprachsteuerungne gibt es schon ewig. Ich meine, dass das Nokia 8210 sowas schon 1999 hatte. Benutzt habe ich es auch dort nie.
 
JamesFunk schrieb:
Benutzt habe ich es auch dort nie.

Lag evtl. auch daran weil es vor Siri kaum gute Erkennungen gab. Siri ist wirklich schon extrem gut. Wenn ich da an die Sprach Steurung/Aufnahme unter Windows Vista/7 denke das ist einfach nur schlecht.
 
Wenn es gut funktioniert habe ich gegen diesen Technischen Fortschritt nichts einzuwenden, sofern die Sprachsteuerung individuell anpassbar ist kann ich dann demnächst mein Telefon mit "du Olle Schlampe" wecken.

Schließlich fand ich schon vor ein paar Jahren Dragon NaturallySpeaking eine nützliche Erweiterung für den PC ;)
 
Axxid schrieb:
Ich warte dann mal auf die NSA-Abhör-Paranoiker, die sich schon über Kinect2.0 aufgeregt haben :daumen:

Ich persönlich bin kein Fan von Sprachsteuerungen. Ich finde es seltsam bis befremdlich wenn Menschen ihren Geräten die Suchbegriffen entgegenblöken.

NSA kann jedes Handy auch ohne diese Features abhören (ohne Internet, nur über Netzbetreiber), und das schon seit mindestens 15 Jahren! Ob Du es glaubst oder nicht. ;)
 
Cool Master schrieb:
Lag evtl. auch daran weil es vor Siri kaum gute Erkennungen gab. Siri ist wirklich schon extrem gut. Wenn ich da an die Sprach Steurung/Aufnahme unter Windows Vista/7 denke das ist einfach nur schlecht.

Ich hab Siri mal ausprobiert, weil es einfach witzig ist. Sinnvolle Fragen fallen mir da aber nicht ein.
Bei den Handys, die ich hatte, konnte ich auch sagen XY anrufen. Ich hab das mal getestet, aber irgendwie werde ich damit nicht warm.

Bei Android nutze ich sehr sehr selten die Spracheingabe für SMS/EMails oder die Suche. Das klappt ganz gut, aber wenn da auch nur ein Buchstabe falsch ist, dauert das Korrigieren länger, als den Text selber zu tippen (wenn das nicht ewig lange Emails sind).
 
Das Unternehmen geht davon aus, dass Elektronikgeräte, die nicht auf Sprachbefehle reagieren, in absehbarer Zeit für Verwirrung sorgen werden. Man erwartet einen Durchbruch wie vor wenigen Jahren mit dem Touchscreen. Spracherkennung bietet LG aktuell unter anderem auch in Haushaltsgeräten wie Staubsaugern oder Kühlschränken an. LG spricht für die Zukunft von „Möglichkeiten und Szenarien á la Star Trek“, die in den eigenen Laboren bereits jetzt nicht mehr Science-Fiction sondern Realität seien.

Ha ha ha, man stelle sich vor, man geht in die Kneipe, oder ist auf einer großen Veranstaltung und ruft laut:"Telefonseelsorge anrufen!" Alle möglichen Handys fangen an zu wählen und zu rattern...gg..^^ Sehr fortschrittlich das Ganze.
 
Forum-Fraggle schrieb:
Test:
[ ] Ich habe verstanden, wie Kinect funktioniert
[x] Ich hab nicht verstanden, wie Kinect funktioniert.

Zur Erinnerung, bei MS war eine ständige Überwachung ohne Abschaltmöglichkeit integriert. Eine Sprachsteuerung an sich ist nicht das Problem.

Test:
[ ] Ich habe Sarkasmus erkannt.
[x] Ich habe Sarkasmus nicht erkannt.

Zur Erinnerung: bei Kinect war eine Routine programmiert, die im Standby auf Sprachbefehle reagieren konnte. Jetzt les dir nochmal den Threadtitel durch.

Zum Thema:
Sprachsteuerung wird erst interessant, wenn man vergisst, das man mit einer Maschine redet. Wenn die Erkennung sauber funktioniert und ich klar entscheiden kann, was ich zum PC sage und was nicht.
Ich denke die ONE mit Cortana(?) wird eine interessante Erfahrung :D
 
kling für mich wie ein massiver Ausbau an Kontrolle. Der Gedanke ein Gerät in meiner Wohnung zu haben dass permanent registriert worüber ich mit anderen rede gefällt mir ganz und gar nicht, und erst recht nicht so ein Gerät auch noch immer und überall mit mir rum zu tragen. Kling für mich wie Stasi 2.0. Jetzt muss man nur noch immer stärker die Sicherheit der Menschen bedrohen (z.B. Terroranschläge unter falscher Flagge, etc.) und dann die totale Überwachung aller Verhalten der Menschen als Allheilmittel durch die Medien in die labilen und ängstlichen Geister der Menschen hineinhämmern. Fehlt nur noch dass dann jemand daherkommt und sagt: "wollt ihr die totale Kontrolle" und alle schreien "Jaaaaa!!!!"
 
Zuletzt bearbeitet:
Artikel-Update: Nach Rücksprache im Heimatland hat uns LG erklärt, dass Maluuba nur ein einzelner Baustein von „Werniche“ sei. Das Projekt bestehe aus „freien“, eingekauften und selbst entwickelten Komponenten, die zusammengeführt und optimiert würden, um die Sprachsteuerung in LG-Produkten zu verbessern. Weitere Details gab LG nicht preis. Wie groß der Anteil von Maluuba ist, sei schwierig zu sagen, da sich dies im Verlauf des Projekts kontinuierlich verändern würde. Die bereits bestehenden Anwendungsszenarien sollen im Laufe der Zeit ausgebaut werden. LG unterstreicht damit, dass zukünftig weitere Elektronikgeräte per Sprache bedienbar sein werden.
 
Sprachsteuerung kann schon ganz praktisch sein.
Wenn man z.B: im Auto unterwegs ist und aus irgendeinem Grund plötzlich das Navi braucht bzw die Route ändern will ist es deutlich besser die Adresse per Sprache einzugeben als während der Fahrt auf dem Handy rumzutippen.

Ich benutze die Funktion hauptsächlich um mal nen Alarm am Handy einzustellen. Tipp auf Mikrofon --> "Wecker 18 Minuten" sagen geht schneller als das per Hand zu machen.
Nur einmal wurde ich kräftig verarscht, als Google wohl am Algorithmus rumgespielt hat und 19:20h dann als 20:19h erkannt wurde...gemerkt hab ichs dann um 19:36h als ich schon längst hätte unterwegs sein müssen ^^
 
Es wäre cool, wenn man dem Telefon die Aktivierungssequenz beibringen könnte.. beim Moto X finde ich den Spruch eher albern.. "Okay google now.. bla" Da wäre etwas selber ausgedachtes viel interessanter. :)
 
Solche Spracheingabe Systeme sind kein Problem so lange sie sich völlig auschalten und nicht heimlich aus der Ferne einschalten lassen, wie es schon so oft mit Webcams geschieht.
 
Ich finde das interessant. Als MS das bei der XBox One angekündigt hat (im Zuge von Kinect 2.0), war das Geschrei vieler groß, das Micro wäre also dann vermutlich die ganze Zeit über aktiv, um die Befehle dann entgegen zu nehmen. Dann die Diskussion noch mit NSA ins Spiel gebracht und ja ... tolle Wahnvorstellung vieler.

Ich finde das durchaus interessant. Besonders während der Autofahrt eine praktische Sache. Ich nutze dort sehr oft Siri, das via Bluetooth dann die Ergebnisse ans Auto übermittelt bzw. Aktionen durchführt (Musik, Navi usw.). Dann würde das lästige Tastedrücken während der Autofahrt aufhören - sehr praktisch. :)

Schauen wir mal, was die Zukunft noch so bringt. Ich sage nur StarTrek "Computer, Analyse xy" :evillol:
 
Zuletzt bearbeitet:
Zurück
Oben