Das richtige Mikrofon für Streaming, Skype, TS, etc...

Ich bastel gerade an einem Beitrag zum Thema Abstand, Stative usw.
Wird aber noch ein bisschen dauern, da ich eine Handvoll Photos und Audioclips dafür erstellen werde :)
 
character schrieb:
Mit welchem Abstand zwischen Mund und Mikro kann man denn solche Mikros sinnvoll nutzen?

Ich benutze seit Jahren die typische Kombination aus Kopfhörer und Clip-Mikro am Kabel, wäre aber alternativen Lösungen mal nicht abgeneigt. Allerdings möchte ich nicht, dass so ein (im Vergleich zum Clip-Mikro) großes Mikrofon direkt vor/neben meinem Mund ist. Freie Sicht auf drei Monitore muss gewährleistet sein.

Es geht eigentlich auch nur um Mumble/VoIP.

Meins ist max 10 cm vom Mund weg, stört den Blick auf den Monitor in keinster Weise, die Augen sitzen ja doch noch was höher als der Mund
 
micha-ilm schrieb:
Ich bastel gerade an einem Beitrag zum Thema Abstand, Stative usw.
Wird aber noch ein bisschen dauern, da ich eine Handvoll Photos und Audioclips dafür erstellen werde :)

Bist der Geilste! Ich warte sehensüchtig ;)
 
Kurzes Update:
Ich arbeite noch an dem ausführlichen Thread zur Mikro-Thematik.
Bin nur zur Zeit recht stark durch Arbeit eingebunden.

Was kommt in den Thread?
- Audiobeispiele für verschiedene Mikros
- Mikrostative (auch Tischstative)
- Audiointerfaces im Vergleich
- Was ist "Gain"?
- Sogar ein paar Bildchen

ETA: Anfang nächster Woche. (Will's halt gscheit machen :) )
 
Du vergißt leider vollkommen, daß das Mikro nur ein Teil der Aufnahmekette ist. Wie man hier an vielen Postings immer wieder sehen und lesen kann, daß viele Probleme mit der Lautstärke der Aufnahmen haben, Mikros zu leisen sind, Sprache zu dynamisch usw.

Hier sollte man mal das Stichwort Kompression, Limiter, EQ usw. erwähnen.

Wer wirklich gute Sprachaufnahmen machen will, kommt um ein ChanelStrip etc. nicht herum.
 
Finde es top, dass jemand das Thema mal so richtig angeht!

Paar Anmerkungen von meiner Seite: Um Störgeräusche und den negativen Einfluss des Raumes möglichst gering zu halten, spielt der Abstand vom Sprecher zum Mikro noch immer die wichtigste Rolle. Natürlich sind auch Richtcharakteristik und Art des Mikros wichtig und es stimmt schon, dass Kondensatormikros tendenziell dazu neigen mehr Nebengeräusche aufzuzeichnen. Ich gehöre ja auch zu den Leuten mit einer netten Mikrofonsammlung und kann aus Erfahrung sagen dass die Wahl des richtigen Mikrofons von der Aufnahmesituation abhängt, was nehme ich wo und in welchem Abstand auf und was ist das klangliche Ziel. Z.B. liefert das Shure SM7B out of the Box einen Sound der einen sofort an Radiosprecher erinnert, vor allem wenn man dessen EQ entsprechend setzt. Es kann von der Klarheit und den Höhendetails für ein dynamisches Mikrofon auch sehr gut mit Kondensatormics mithalten. Ich kann es mir auch gut in einer Rock-Alternative Produktion als Gesangsmic vorstellen. Will oder muss ich aber etwas mit größerem Abstand aufnehmen, versagt es leider. Ich muss den Gain dermassen aufreissen, dass das Rauschen einfach zu laut wird, vor allem wenn das Signal noch mit Kompressoren und Höhenanhebung nachbearbeitet wird. In dem Fall liefert mir ein Kondensatormikro dann die besseren Ergebnisse, zumindest solange ich keine Nebengeräusche habe und der Raumhall passt. Mag sein, dass es für den Fall mit Nebengeräuschen/problematischem Raumhall dann besonders gerichtete dynamische Mikros gibt, die den besseren Kompromiss darstellen. Von daher würde ich mich freuen wenn du in deinem Vergleich auch auf das unterschiedliche Verhalten bei unterschiedlichem Abstand und evtl auch Einsprechwinkel eingehst.


Was evtl auch noch in den Thread sollte (weil es ja schon asngesprochen wurde), wäre was man durch ordentliche Nachbearbeitung alles rausholen kann. Um hier mal paar Sachen anzusprechen:

Ein Lowcut EQ bei 80-100Hz ist eigentlich trotz Poppschirm Pflicht, wenn man ein sauberes Sprachsignal ohne störende Popplaute aufnehmen möchte. Meist erhält man gleichzeitig auch höhere Headroom Reserven, sprich man kann das Signal nach dem EQ höher aussteuern ohne in die Übersteuerung zu kommen.

Ein Großteil dessen was die meisten als hochwertige Sprachaufnahme empfinden, kommt daher dass die Sprachaufnahme schön gleichmäßig klingt. Das läßt sich einerseits durch Einhalten eines konstant gleichen Abstands und ein antrainiertes gleichmäßiges Sprechen erreichen, andererseits durch den Einsatz von einem oder mehreren Kompressoren (ich verwende bei Sprache meist 2-3). Ich traue mich sogar, zu behaupten, dass man mit einem Mic der 10€ Klasse mit der richtigen Nachbearbeitung, im Vergleich zu einem guten Mic der 1000€ Klasse ohne Nachbearbeitung, einen von der breiten Masse als besser empfundenen Klang hinbekommt. Klar dass ein gutes Mikrofon mit Nachbearbeitung dann nochmal um Welten besser klingen wird, es soll nur zeigen wie wichtig dieser Aspekt ist und dass hinter sämtlichen professionell klingenden Sprachaufnahmen mehr steckt, als nur ein gutes Mikro.

Beim Einsatz eines Equalizers auf der Sprachaufnahme ist vieles Geschmacksache. Bewährt haben sich meistens eine leichte Bassabsenkung per Lowshelf bis ca. 300Hz und eine leichte Höhenanhebung ab 6-10KHz, am besten im Zusammenspiel mit einem DeEsser. Gerade bei den meisten dynamischen Mikros wird man um eine deutliche Höhenanhebung nicht rumkommen wenn man ein professionelles Ergebnis erzielen will.

Gerade bei Einsatz eines Kompressors, werden die Störgeräusche und der Raumhall nochmal extra mit angehoben. Man kann hier klassisch mit Noisegate und Expander gegensteuern, was aber gerade für unerfahrene User eine ziemliche Frickelei ist. Klar gibt es seit kurzem z.B. Plugins die sich darauf spezialisiert haben den Nachhall des Raumes rauszurechnen, die aber leider alle ziemlich kompliziert einzustellen sind und eher viel CPU-Last erzeugen. Ein Geheimtipp ist aber in einem Plugin zur Bearbeitung der Transienten, den Sustain ein gutes Stück rauszudrehen. Bocksimpel mit einem Regler weniger Nachhall und die Dinger brauchen fast null CPU Power, sind echtzeitfähig und somit durchaus streaming tauglich. Klar ganz perfekt wirds dadurch evtl noch nicht, aber um einiges besser als ohne.

Wenn ich Sprache aufnehme, sieht meine Signalkette auf der digitalen Ebene meist in etwa folgendermassen aus:

Lowcut EQ -> Transient Designer -> Kompressor1 -> Kompressor2 -> Klangfärbender EQ -> DeEsser -> Limiter zur Vermeidung von Übersteuerungen

Klar kann man vieles davon auch in einem Channelstrip auf analoger Ebene vor dem Audiointerface realisieren. Viele Audiointerfaces bieten aber auch interne DSP-Plugins die dafür in Frage kommen. Ich persönlich empfinde als optimale Möglichkeit (weil sie mir am meisten Freiheit bietet), das Mikrofonsignal vom Audiointerface im Rechner in einen VST Host zu leiten, das dort die Signalkette mit Plugins durchläuft, von dort wieder an das Audiointerface zurückgeschickt wird und dort per Loopback erneut in den Rechner an den Soundport den die Streaming Software verwendet. Dabei muss man natürlich streng auf niedrige Latenzen achten (sowohl beim Audiointerface als auch bei den Eigenlatenzen der PlugIns), ansonsten hört man das Audiosignal evtl merkbar verzögert. Falls kein Loopback zur Verfügung steht, kann man natürlich ein Routing Tool wie Virtual Audio Cable verwenden, das bedeutet aber auch Frickelei und somit eine höhere Wahrscheinlichkeit Fehler und Ausfälle zu produzieren. VST Hosts und Plugins für alle Bearbeitungsschritte gibt es natürlich von hochpreisig bis kostenlos.
 
Zurück
Oben