@Old Knitterhemd:
Würdest du bitte endlich mal etwas konkreter werden ... Wenn du mir "keine Ahnung" vorwerfen kannst, dann kannst du doch auch sicherlich mit der großen Großmutterahnung diese Meinung begründen.
Ich schnippele seit über 10 Jahren an Stimmaufnahmen herum, und das Instrumentarium sowie der Aufwand sind überschaubar.
Um z.B. aus einem P ein B zu machen (oder gar ein W) muss man die Hüllkurve verändern ... und zwar nur in EINEM Wert (attack). Natürlich müsste man es für einen automatisierbaren Algorithmus vereinfacht und vereinheitlicht werden, was das Ergebnis eben auch verändert. Möglich ist es ... aber eventuell sind digital natives damit etwas überfordert.
Worauf ich hinaus will:
An elektronischer Klangsynthese wird seit über 150 Jahren gearbeitet (die ersten elektronischen Klänge sind älter als der Lautsprecher) ... und bei Google, Apple oder Amazon versucht man gerade, dieses Rad in digital neu zu erfinden?
Mit der Modultation menschlcher Stimmen haben Kraftwerk schon in den 1970ern viel gearbeitet ... die wollten damals Computerstimmen haben, und die haben das mMn recht gut hin bekommen.
Mit vollkommen analoger Sampling-Technik in Einfamilienhaus-Größe.
Damals hat das Jahre gedauert, was an der sehr bescheidenen Rechenpower der damaligen Computer lag.
Der ganze analoge Kram, mit dem die das damals schon hinbekommen haben, muss neute nur noch simuliert werden. Wir müssen nichtmal mehr darauf achten, dass die Ausgangssamples wenig Platz einnehmen.
Wenn unsere Computer irgendwas so richtig gut können, dann ist es genau die selbe simple Aufgabe 10 Millionen mal pro Sekunde auszuführen.
Die Entwickler bei Google und Co arbeiten doch nicht mit Turing-Maschinen ... die Technik ist etwas weiter, als bei Atari und Amiga.
Dank Formantenanalyse und Frequenzmodulation braucht man seit Jahrzehnten ein ziemlich gutes Gehör, um eine analoge von einer elektronischen Oboe zu unterscheiden ... inkl. der Simulation unterschiedlicher Spieltechniken, räumlicher Begebenheiten, verschiedener Instrumententypen.
Im Musikbereich gibt es dank der Digitalisieung einen Haufen kleiner und erschwinglicher Geräte, die einen Funktionsumfang bieten, von dem die Kraftwerk-Tüftler damals nur träumen konnten ... (einfach mal nach den Speziikationen sogenannter "Modelling-Amps" suchen).
Bereits Ende der 1990er war es sehr leicht möglich, aus einem Klatschen nur mit Delay und Hall einen Basston zu generieren, der mal nach einem Kontrabass und mal nach einer Basstrommel klang. Und das war nicht teure Studiotechnik ... einen Audioinput und das passende "Spiel" vorrausgesetzt hätte man das wenig später sogar mit der ersten Playstation machen können.
In dem Bereich gibt es Kilotonneweise Erfahrung und Megatonnen an Daten, durch deren Analyse es auch relativ leicht möglich ist, weitere Instrumente naturgetreu zu simulieren.
Heute kannst du ein gezupftes Stück Kuchendraht klingen lassen wie eine Gitarre ... oder eine gestrichene Säge wie eine Stradivari.
Und wir kriegen es nicht hin, einen Computer so klingen zu lassen, wie einen Menschen ... ovbwohl die Tech-riesen Terabyteweise Stimmaufnahmen von ihren Hauswanzen haben und von daher sehr gut die Formantenstrukturen analysieren und statistisch mitteln könnten?
Auf die weise ist wohl auch "Q" entstanden.
Die Rechenpower, mit der man heute Konsummuster analysiert, kann mMn auch das leisten.