Werden durch Siri, Alexa und co alte Rollenklischees verstärkt?

Meine Schwiegermutter hatte mal Bully Herbig als Cpt.Spuck im Autonavi. Als was würde sowas zählen? (ich fand es super)

Ansonsten finde ich den Zusammenhang von "Gadget hat weibliche Stimmausgabe" zu "Die Frau(tm) wird in eine antiquierte Klischeegeschlechterrolle gepresst" an den Haaren herbeigezogen.
Das klingt für mich nach dem zwanghaften Versuch, die Frau in einer Art Opferrolle präsentieren zu wollen wobei ich nicht sagen kann, zu welchem Zweck das geschieht.
Vermutlich um als Opfer von Ungleichberechtigung dazustehen.

Im übrigen bin ich für bedingungslose Gleichberechtigung, sofern anwendbar.
Nicht anwendbar wäre da zB das Recht des Mannes ein Kind zu gebären - geht halt einfach nicht.
 
HyperSnap schrieb:
Und eigene Samples?, ne danke früh will ich mich nicht selber hören.
Dann nimmt man halt die Stimme der Freundin, ach Stop das wär ja wieder Diskriminierung 😁
Mir gings dabei darum, dass DAS eine echte Individualisierung wäre ... jedenfalls könnte man das Gerät dann weit besser individualisieren, als wenn man aus einer sehr überschaubaren Menge an presets auswählen kann.

Individualisierbar bedeutet für mich, dass es möglich ist, dass jedes Individuum (davon wirds demnächst 8 Mrd geben) zumindest theoretisch ein einzigartiges Gerät da stehen haben kann.
Momentan ist das mehr so "wähle deine Uniform" ... und das hat genaugenommen mit Individualisierung nichts mehr zu tun.
Echte Individualisierung verlangt mMn etwas mehr, als die Auswahl zwischen Variante A, B oder C.
 
Dabei ist doch empirisch bewiesen, dass Männerstimmen als angenehmer empfunden werden :o
 
Der TE antwortet, wie für ihn fast schon typisch, leider eher nur spärlich auf Kommentare.

Ist halt kein Safe Space, diese Realität.
 
SE. schrieb:
Akustisches Feedback hat durchaus seine Berechtigung, auch wenns erstmal nur nach Spielerei aussieht.
Natürlich hat das seine Berechtigung ... ich kenne einige Menschen, die darauf angewiesen sind ... und weißt du was ... denen ist vollkommen egal, wie die Sprachausgabe klingt ... Inhalt und Verständlichkeit der Nachricht sind weit wichtiger, als eine angenehme Stimme.
Einer ist besonders witzig ... der hat einen Rollstuhl, den er im Prinzip über Sprache steuern könnte ... er nutzt trotzdem das taktile interface (in Blindenschrift), weil ihm die Sprachsteuerung zu zeitaufwändig und zu indiskret ist.
Old Knitterhemd schrieb:
...oder weil es technischer Wahnsinn ist...
Genau wie die manuelle Einstellung eines 10-Band-Equalizers?
Stimmt ... wenn ich mir meine Schüler so ansehe, ist denen das echt nicht zuzutrauen.
Wo ist denn eine Sprachausgabe bitte ein großer technischer Aufwand ... es ist seit Jahrzehnten bekannt, dass man mit einer relativ schmalen Auswahl an Lauten nahezu jeden Satz bilden kann ... man muss also nicht jede nur irgendwie denkbare Antwort extra aufnehmen. Mittlerweile gelingt es sogar, dass bei den Ausgaben nicht mehr wirklich auffällt, dass die zusammengeschnippelt sind.

Und das soll mit selbst gemachten Aufnahmen technisch nicht möglich sein?
Bitte mal begründen.

Ich kann dir in jeder Stimmaufnahme aus einem "P" ein "B" machen ... und das, was ich dafür tun muss, kann auch problemlos automatisiert werden ... denn dafür muss "nur" die Hüllkurve (Lautstärkeverlauf eines Events) angepasst werden.
Ohne Automatisierung klappt das sogar mit der freeware von Audacity.
 
Zuletzt bearbeitet:
DerOlf schrieb:
Genau wie die manuelle Einstellung eines 10-Band-Equalizers?
Stimmt ... wenn ich mir meine Schüler so ansehe, ist denen das echt nicht zuzutrauen.
Wo ist denn eine Sprachausgabe bitte ein großer technischer Aufwand ... es ist seit Jahrzehnten bekannt, dass man mit einer relativ schmalen Auswahl an Lauten nahezu jeden Satz bilden kann ... man muss also nicht jede nur irgendwie denkbare Antwort extra aufnehmen. Mittlerweile gelingt es sogar, dass bei den Ausgaben nicht mehr wirklich auffällt, dass die zusammengeschnippelt sind.

Und das soll mit selbst gemachten Aufnahmen technisch nicht möglich sein?
Bitte mal begründen.

Ich kann dir in jeder Stimmaufnahme aus einem "P" ein "B" machen ... und das, was ich dafür tun muss, kann auch problemlos automatisiert werden ... denn dafür muss "nur" die Hüllkurve (Lautstärkeverlauf eines Events) angepasst werden.
Ohne Automatisierung klappt das sogar mit der freeware von Audacity.


Nichts für Ungut aber mit deinem scheinbaren Wissen könntest du viel Geld bei Amazon und co verdienen, wieso machst du das nicht?

Du scheinst ja Dinge zu wissen, an denen seit Jahren sehr einflussreiche Firmen scheitern...

Niemand will eine abgehackte Robostimme.

Menschlichen Sprachgebrauch technisch zu modulieren ist ein Mammutprojekt, an dem schon lange geforscht wird.


Ein Mensch erkennt heutzutage IMMER, wenn er mit einer KI spricht, wenn die Sätze frei konfiguriert werden!

Tricksereien mit im Ganzen aufgenommenen Sätzen zählen nicht!

Milliarden wurden darin schon versenkt und jetzt willst du das ganze noch mal eben mit der Stimme des jeweiligen Kunden machen ;)
 
  • Gefällt mir
Reaktionen: Kuba und new Account()
Ein Lehrer weiß es natürlich besser als Google, Amazon und Apple. Kommt mir irgendwie bekannt vor,
 
Das hat mit Lehrer nicht das geringste zu tun ... höchstens mit Audiobearbeitung.
Old Knitterhemd schrieb:
Ein Mensch erkennt heutzutage IMMER, wenn er mit einer KI spricht, wenn die Sätze frei konfiguriert werden!
Und es stört offensichtlich sehr, wenn man das erkennt .. möchte man eventuell nicht daran erinnert werden, dass das KEIN Mensch ist?
Menschliche Modulationen und eventuell Emotionalität da hinein zu bringen, DAS ist das Mammutprojekt, an dem momentan gescheitert wird. Eine Sprachausgabe auf vernünftigem Niveau gibts schon seit mindestens 5 Jahren.
Es klingt nur noch nicht ganz nach Mensch ... aber eventuell muss das für die meisten auch gar nicht sein.
 
Hallo

DerOlf schrieb:
Warum überhaupt eine Sprachausgabe?
Beim Navi z.B. wegen der Sicherheit, damit man beim Autofahren nicht permanent auf das Navi sehen muss.

DerOlf schrieb:
Am besten fänd ich es wohl, wenn jeder die Sprachsamples selbst aufnehmen könnte ... leider ist diese Form der Individualisierung den Entwicklern und den Usern wohl zu wenig uniform ;)
Was bringt mir die tolle Möglichkeit (der Individualisierung) meine Stimme aufzunehmen,...

DerOlf schrieb:
Wo ist denn eine Sprachausgabe bitte ein großer technischer Aufwand ... es ist seit Jahrzehnten bekannt, dass man mit einer relativ schmalen Auswahl an Lauten nahezu jeden Satz bilden kann ... man muss also nicht jede nur irgendwie denkbare Antwort extra aufnehmen. Mittlerweile gelingt es sogar, dass bei den Ausgaben nicht mehr wirklich auffällt, dass die zusammengeschnippelt sind.

Und das soll mit selbst gemachten Aufnahmen technisch nicht möglich sein?
Bitte mal begründen.

Ich kann dir in jeder Stimmaufnahme aus einem "P" ein "B" machen ... und das, was ich dafür tun muss, kann auch problemlos automatisiert werden ... denn dafür muss "nur" die Hüllkurve (Lautstärkeverlauf eines Events) angepasst werden.
...man dabei aber mit Tricks arbeiten muss damit der "Einsprechaufwand" überschaubar bleibt,...

DerOlf schrieb:
Es klingt nur noch nicht ganz nach Mensch ... aber eventuell muss das für die meisten auch gar nicht sein.
...wenn die ausgegebene Stimme nicht mehr nach meiner (menschlichen) Stimme klingt ?

Grüße Tomi
 
Hallo in die Runde, erstmal danke für die vielen Antworten und dass hier bis auf ein paar Relativierungen alles sachlich bleibt

Old Knitterhemd schrieb:
Nö, kurze Überraschung, es gibt zwei biologische Geschlechter mit relativ typischen Erkennungsmerkmalen, die dürfen auch beide gerne vertreten sein.
Also diese doch stark biologistisch geprägte Auffassung entspricht nicht mehr dem aktuellen Stand der Wissenschaft und ist daher überholt. Heute setzt man glücklicherweise das soziale Geschlecht in den Mittelpunkt. Möglich, dass diese Erkentniss bei der Mehrheitsgesellschaft noch nicht so stark wie wie in akademischen Kreisen angekommen ist
 
Zuletzt bearbeitet:
Hallo

RfgsWlcm2k17 schrieb:
Heute setzt man glücklicherweise das soziale Geschlecht in den Mittelpunkt
Das ändert nichts an der biologischen Tatsache das es nur männlich oder weiblich klingende Stimmen gibt oder gibt es eine sozial klingende Stimme die nicht männlich oder weiblich klingt ?

Grüße Tomi
 
  • Gefällt mir
Reaktionen: Knecht_Ruprecht und Markenbutter
Tomislav2007 schrieb:
Beim Navi z.B. wegen der Sicherheit, damit man beim Autofahren nicht permanent auf das Navi sehen muss.
Muss die Stimme dafür menschlich klingen, oder reicht verständlich und nicht unangenehm?
Tomislav2007 schrieb:
Was bringt mir die tolle Möglichkeit (der Individualisierung) meine Stimme aufzunehmen,...
Was zwingt dich, deine zu nehmen?
Eine Woche nachdem dieses "feature" bei den Geräten aktiv wäre, könntest du dir tausend verschiedene Stimmdatenbanken herunterladen, sodass es am Ende für das Individuum kein großer Aufwand wäre.
Der hätte dann nur die Qual der Wahl.
Und glaubst du ein Hersteller würde es sich nehmen lassen, gegen Aufpreis gleich noch 10 Datenbanken draufzulegen ... so als "Premium-Paket"?
Tomislav2007 schrieb:
...wenn die ausgegebene Stimme nicht mehr nach meiner (menschlichen) Stimme klingt ?
Wie man es hinbekommt, dass es eben doch noch nach dem klingt, der es eingesprochen hat, das muss man den Geräten natürlich beibringen.
 
Tomislav2007 schrieb:
Hallo


Das ändert nichts an der biologischen Tatsache das es nur männlich oder weiblich klingende Stimmen gibt oder gibt es eine sozial klingende Stimme die nicht männlich oder weiblich klingt ?

Grüße Tomi
Was als männlich oder weiblich wahrgenommen wird lässt sich häufig nicht eindeutig einordnen, da das soziale Konstrukte sind. Darüber hinaus gibt es auch dunkle Stimmen von Menschen die biologisch eine Frau sind und umgekehrt. Problematisch sind die Stereotype.
 
Hallo

DerOlf schrieb:
Muss die Stimme dafür menschlich klingen, oder reicht verständlich und nicht unangenehm?
Jemandem der sich die guten alten 90er Jahre zurück wünscht mag verständlich und angenehm ausreichen, ich als jemand der sich im Jahr 2019 wohl fühlt erwarte das die Stimme menschlich klingt.

DerOlf schrieb:
Was zwingt dich, deine zu nehmen?
Niemand, du hattest doch die tolle Idee seine eigene Stimme zur Individualisierung zu nehmen und ich fragte nur was das bringt wenn die eigene Stimme nicht mehr nach der eigenen Stimme klingt.

DerOlf schrieb:
Wie man es hinbekommt, dass es eben doch noch nach dem klingt, der es eingesprochen hat, das muss man den Geräten natürlich beibringen.
Also doch nicht so einfach wie du das dargestellt hast, vor allem wenn man berücksichtigt das man bei einem Navi/Smartphone nicht die Möglichkeiten wie mit Tonstudio Equipment hat.

RfgsWlcm2k17 schrieb:
Was als männlich oder weiblich wahrgenommen wird lässt sich häufig nicht eindeutig einordnen, da das soziale Konstrukte sind. Darüber hinaus gibt es auch dunkle Stimmen von Menschen die biologisch eine Frau sind und umgekehrt.
Es ist egal wieso eine Stimme männlich oder weiblich klingt, ob es an der Wahrnehmung liegt oder ob Eva männlich klingt weil sie zu viel raucht oder ob Adam weiblich klingt weil er Stöckelschuhe trägt.
Stimmen haben immer einen männlichen oder weiblichen Charakter oder werden männlich oder weiblich interpretiert, eine Stimme die von jedem als geschlechtsneutral empfunden wird gibt es nicht.
Wir haben es doch am Beispiel aus Beitrag 19 gesehen, der eine sagt männlich, der andere sagt weiblich, der nächste sagt schwankt zwischen männlich und weiblich, aber keiner sagt geschlechtsneutral.
Wie soll man eine geschlechtsneutrale Stimme kreieren wenn unterschiedliche Menschen das ganz anders empfinden/hören und in die Stimme ein Geschlecht hinein interpretieren ?
Akustisch kann man nicht so einfach täuschen, das Ohr läßt sich nicht so einfach betrügen wie das Auge, was meinst du wieso es viel mehr optische als akustische Täuschungen gibt ?

RfgsWlcm2k17 schrieb:
Problematisch sind die Stereotype.
Was soll an Stereotypen problematisch sein, abgesehen davon sie vereinfacht darstellen und du da Probleme hinein interpretierst ? Möchtest du das wir alle gleich sind ? Das wäre doch langweilig.

Grüße Tomi
 
Zuletzt bearbeitet:
RfgsWlcm2k17 schrieb:
Was als männlich oder weiblich wahrgenommen wird lässt sich häufig nicht eindeutig einordnen, da das soziale Konstrukte sind

Bitte was??

RfgsWlcm2k17 schrieb:
Also diese doch stark biologistisch geprägte Auffassung entspricht nicht mehr dem aktuellen Stand der Wissenschaft und ist daher überholt. Heute setzt man glücklicherweise das soziale Geschlecht in den Mittelpunkt. Möglich, dass diese Erkentniss bei der Mehrheitsgesellschaft noch nicht so stark wie wie in akademischen Kreisen angekommen ist


Auch das ist Blödsinn.

Vllt weniger auf Tumblr und in seriösen Quellen lesen.

Es gibt nach wie vor 2 biologische Geschlechter, sexuelle Orientierung und zu welchem Geschlecht ich mich zugehörig fühle, wenn überhaupt zu einem, hat damit absolut nix zu tuen.

Alles weitere fällt unter den Begriff Gender, der sich vom biologischen Konzept abgrenzt.


Und wer Begriffe wie biologistisch nutzt, den nehme ich eh nicht ernst.


DerOlf schrieb:
Und es stört offensichtlich sehr, wenn man das erkennt .. möchte man eventuell nicht daran erinnert werden, dass das KEIN Mensch ist?
Ganz genau das.

Eine Stimme die einen vollsülzt, mit unerträglichem Geleier und seltsamen Betonungen will keiner.

Sprachausgabe macht Sinn, wenn ich mich normal mit der KI unterhalten kann.

Dafür wird sie entwickelt.

Wenn ich sowas nicht will, dann kauf ich so einen Schrott nicht aber ich mecker dann nicht rum und tue so als könnte ich es besser.

Fang doch Mal an und mach eine Sprachausgabe mit deiner Stimme, " kann doch nicht so schwer sein", um dich zu zitieren...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: flym, Knecht_Ruprecht und Prophetic
Bei meinem Versuch mich in das Thema einzulesen bin ich auch über das genderless voice Projekt gestolpert.
Klingt dann so:
https://www.genderlessvoice.com/
Fände ich als Assistentstimme „okay“, wirklich angenehm empfinde ich die Tonhöhe allerdings nicht. Irgendwie klingts für mich als würden mehrere Stimmen gleichzeitig sprechen.
DerOlf schrieb:
Inhalt und Verständlichkeit der Nachricht sind weit wichtiger, als eine angenehme Stimme.
Jein. Natürlich ist die Nachricht als solche wichtig, allerdings macht es für mich schon einen Unterschied wie das Gerät mit mir kommuniziert, ich will weder ANGEBRÜLLT noch irgendwie creppy aNgESProCHen werden.
Wie ich schrieb stehe ich einer entmenschlichung von Maschinen positiv gegenüber.
 
  • Gefällt mir
Reaktionen: RfgsWlcm2k17
Tomislav2007 schrieb:
Jemandem der sich die guten alten 90er Jahre zurück wünscht mag verständlich und angenehm ausreichen, ich als jemand der sich im Jahr 2019 wohl fühlt erwarte das die Stimme menschlich klingt.
Dann musst du dir leider auch anhören, wenn irgendwelche "Spinner" in der überwiegenden Nutzung der weiblichen Standardstimmen ein Problem sehen.
Wenns nicht nach Mensch klingt, KANN sich da niemand diskriminiert fühlen, und die ganze Debatte würde sich in Luft auflösen.
Tomislav2007 schrieb:
du hattest doch die tolle Idee seine eigene Stimme zur Individualisierung zu nehmen
Bitte? Ich sprach davon, dass der User die Sprachsamples selbst aufnimmt, die Idee, dass es dann die eigene Stimme ist, lag mir dabei ziemlich fern.
Ansonsten sprach ch über die technischen Möglichkeiten bei der Bearbeitung von Audiodateien.
Den ganzen Kram, den ich damit anstelle (egal ob es dabei um Musik oder um ein Interview geht) mache ich mit den Bordmitteln einer 15 Jahre alten Version von Cubase ... und mein Uraltprozessor kommt dabei nichtmal auf 20% Auslastung.
Tomislav2007 schrieb:
Also doch nicht so einfach wie du das dargestellt hast, vor allem wenn man berücksichtigt das man bei einem Navi/Smartphone nicht die Möglichkeiten wie mit Tonstudio Equipment hat.
Ich habe nicht behauptet, dass das einfach ist. Natürlich habe auch ich einige Zeit lernen müssen, wie man Stimmen so bearbeitet, dass es nachher nicht auffällt.
Ich würde wetten, dass ein Smartphone von 2017 mehr power hat, als der erste Rechner, an dem ich mit Cubase gearbeitet habe. Das, was ich da mache, bringt auch einen 486er oder vergleichbares nicht ins Schwitzen. Auch bei gleichzeitiger Aufnahme, beim Bearbeiten, oder beim Rendern (Mastern) von 30 und mehr .wav-Spuren.
Die Studiotechnik wird dabei lediglich emuliert, so wirklich viel Platz nimmt das alles nicht ein. Und die Rechenpower, die man dafür bei älteren DAW's brauchte, ist auch sehr überschaubar.
Tomislav2007 schrieb:
Was soll an Stereotypen problematisch sein, abgesehen davon sie vereinfacht darstellen und du da Probleme hinein interpretierst ? Möchtest du das wir alle gleich sind ? Das wäre doch langweilig.
Stereotype schreiben BEIDEN Geschlechtern vor, wie sie zu sein haben, damit die Geschlechtereinordnungsmechaniken in unseren Gehirnen reibungslos funktionieren, und sie dementsprechend als "männlich" oder als "weiblich" wahrgenommen werden. In der Folge lernen kleine Mädchen viel schlechter sich durchzusetzen und kleine Jungs entwickeln Probleme bei der Äusserung von Emotionen.
Beides kann Probleme machen ... und die hängen in dem Fall direkt mit stereotypen Rollenerwartungen zusammen.

Der Begriff Gender kommt nebenbei aus einem weniger schönen Bereich der Medizin ... geschlechtliche Vereindeutlichung ... "Sex" (also das biologische Geschlecht ... ablesbar an Körpermerkmalen) wurde einst als die primäre Referenz für das eigene Geschlechtsrollenverhalten gesehen. Erst als man ein theoretisch relativ sauber trennbares Konzept eines theoretsch beliebigen sozialen Geschlechts hatte, konnte man Umwandeln und vereindeutgen wie man lustig war. Schnipp Schnapp ... jetzt ist es ein Mädchen.
Mal für alle, die den Gender Begriff verwenden, ohne zu wissen, woher der eigentlich kommt ... dieser Begriff wurde kreiert um Menschen ein eindeutiges biologisches Geschlecht aufzwingen zu können bzw. um diese gängige Praxis zu legitimieren.
Dahinter steckt natürlich die Meinung, dass das soziale Geschlecht für den Alltagsvollzug in unserer Gesellschaft viel wichtiger ist, als das biologische (hier setzt auch die moderne Gender-Debatte an) ... Letzteres kommt erst ins Spiel, wenn die interaktion intimer wird. Davor kommt es nur darauf an, ob man sein Gegenüber für eine Frau oder einen Mann HÄLT.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: RfgsWlcm2k17
DerOlf schrieb:
Den ganzen Kram, den ich damit anstelle (egal ob es dabei um Musik oder um ein Interview geht) mache ich mit den Bordmitteln einer 15 Jahre alten Version von Cubase ... und mein Uraltprozessor kommt dabei nichtmal auf 20% Auslastung.

Sorry aber du hast keine Ahnung wovon du redest.
Ein Audiosignal zu bearbeiten ist nicht die Kunst, aber woher weiß das System denn, wo es was bearbeiten muss?

Oder sollen da Mitarbeiter sitzen und für jeden Kunden eine eigene Sprachsynthese händisch konfigurieren?

Glaubst du ein moderner PC kann sprechen?

Du machst dich leider mehr und mehr lächerlich, besonders mit solchen Sätzen:

DerOlf schrieb:
Den ganzen Kram, den ich damit anstelle (egal ob es dabei um Musik oder um ein Interview geht) mache ich mit den Bordmitteln einer 15 Jahre alten Version von Cubase ... und mein Uraltprozessor kommt dabei nichtmal auf 20% Auslastung.

Das zeigt lediglich, dass du keinerlei Ahnung hast worum es eigentlich geht.


DerOlf schrieb:
Bitte? Ich sprach davon, dass der User die Sprachsamples selbst aufnimmt, die Idee, dass es dann die eigene Stimme ist, lag mir dabei ziemlich fern.

Worauf willst du hinaus?
 
@Old Knitterhemd:
Würdest du bitte endlich mal etwas konkreter werden ... Wenn du mir "keine Ahnung" vorwerfen kannst, dann kannst du doch auch sicherlich mit der großen Großmutterahnung diese Meinung begründen.

Ich schnippele seit über 10 Jahren an Stimmaufnahmen herum, und das Instrumentarium sowie der Aufwand sind überschaubar.
Um z.B. aus einem P ein B zu machen (oder gar ein W) muss man die Hüllkurve verändern ... und zwar nur in EINEM Wert (attack). Natürlich müsste man es für einen automatisierbaren Algorithmus vereinfacht und vereinheitlicht werden, was das Ergebnis eben auch verändert. Möglich ist es ... aber eventuell sind digital natives damit etwas überfordert.

Worauf ich hinaus will:
An elektronischer Klangsynthese wird seit über 150 Jahren gearbeitet (die ersten elektronischen Klänge sind älter als der Lautsprecher) ... und bei Google, Apple oder Amazon versucht man gerade, dieses Rad in digital neu zu erfinden?
Mit der Modultation menschlcher Stimmen haben Kraftwerk schon in den 1970ern viel gearbeitet ... die wollten damals Computerstimmen haben, und die haben das mMn recht gut hin bekommen.
Mit vollkommen analoger Sampling-Technik in Einfamilienhaus-Größe.
Damals hat das Jahre gedauert, was an der sehr bescheidenen Rechenpower der damaligen Computer lag.
Der ganze analoge Kram, mit dem die das damals schon hinbekommen haben, muss neute nur noch simuliert werden. Wir müssen nichtmal mehr darauf achten, dass die Ausgangssamples wenig Platz einnehmen.

Wenn unsere Computer irgendwas so richtig gut können, dann ist es genau die selbe simple Aufgabe 10 Millionen mal pro Sekunde auszuführen.

Die Entwickler bei Google und Co arbeiten doch nicht mit Turing-Maschinen ... die Technik ist etwas weiter, als bei Atari und Amiga.

Dank Formantenanalyse und Frequenzmodulation braucht man seit Jahrzehnten ein ziemlich gutes Gehör, um eine analoge von einer elektronischen Oboe zu unterscheiden ... inkl. der Simulation unterschiedlicher Spieltechniken, räumlicher Begebenheiten, verschiedener Instrumententypen.
Im Musikbereich gibt es dank der Digitalisieung einen Haufen kleiner und erschwinglicher Geräte, die einen Funktionsumfang bieten, von dem die Kraftwerk-Tüftler damals nur träumen konnten ... (einfach mal nach den Speziikationen sogenannter "Modelling-Amps" suchen).
Bereits Ende der 1990er war es sehr leicht möglich, aus einem Klatschen nur mit Delay und Hall einen Basston zu generieren, der mal nach einem Kontrabass und mal nach einer Basstrommel klang. Und das war nicht teure Studiotechnik ... einen Audioinput und das passende "Spiel" vorrausgesetzt hätte man das wenig später sogar mit der ersten Playstation machen können.

In dem Bereich gibt es Kilotonneweise Erfahrung und Megatonnen an Daten, durch deren Analyse es auch relativ leicht möglich ist, weitere Instrumente naturgetreu zu simulieren.
Heute kannst du ein gezupftes Stück Kuchendraht klingen lassen wie eine Gitarre ... oder eine gestrichene Säge wie eine Stradivari.
Und wir kriegen es nicht hin, einen Computer so klingen zu lassen, wie einen Menschen ... ovbwohl die Tech-riesen Terabyteweise Stimmaufnahmen von ihren Hauswanzen haben und von daher sehr gut die Formantenstrukturen analysieren und statistisch mitteln könnten?
Auf die weise ist wohl auch "Q" entstanden.
Die Rechenpower, mit der man heute Konsummuster analysiert, kann mMn auch das leisten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: RfgsWlcm2k17 und areiland
Zurück
Oben