Podcast aufnehmen: So gelingt deine Podcast-Produktion
von Marc Bohn,
Anzeige
(Bild: Dieter Stork)
In dieser Episode unseres Sound&Recording-Podcasts spreche ich mit den beiden Sounddesignern und Audio Engineers Patrick Leuchter und Sebastian Heinrich über Sprachaufnahmen. Dabei liegt unser Fokus auf der Produktion von Podcasts. Wir gehen die Mikrofon-Klassiker für Sprachaufnahmen durch, geben Mikrofon- und Equipment-Empfehlungen für verschiedene Gesprächssituationen, tauschen Erfahrungen mit USB-Mikrofonen aus, und erklären, wie man Hintergrundgeräusche ausblenden und die Raum-Akustik mit einfachen Hilfsmitteln optimieren kann.
Außerdem zählen wir auf, worauf man als Sprecher während der Aufnahme achten kann, und gehen den kompletten Produktions-Prozess durch: Aufnahme, Editing, Mixing, Mastering. Auch der Einfluss der aktuellen Hörgewohnheiten spielt bei der Produktion von Podcasts eine wichtige Rolle. Man kann, darf und muss bei der Produktion auf Details achten, es gibt allerdings keine feste Regeln. Klar, die richtige Technik ist wichtig! Der Fokus sollte aber nicht auf der Aufnahme, sondern auf dem Inhalt des Podcasts liegen. Um den zu übertragen, ist das Wichtige: Der Podcast muss authentisch sein!
Anzeige
Podcast: Sprachaufnahmen für Podcast-Produktionen:
12 USB- und Lightning-Mikrofone im Klangvergleich:
Podcasts gibt es bereits seit über 15 Jahren. Aktuell feiert das Medienformat eine Art Renaissance bzw. erlebt seinen zweiten Frühling − oder sagen wir: den ersten! Denn so wirklich angekommen sind Podcasts nie … bis jetzt. Das hat wohl viele Gründe: weniger lesen, weniger Bildschirm-Starren, mehr berieseln lassen. Gedankenreisen! Ich persönlich bin auch gerade erst auf den Trichter gekommen und höre Podcasts zu den Themen Abenteuerreisen, Eishockey, Whisky und natürlich auch Musikproduktion. Da mich natürlich interessiert, wie die Podcaster ihre Folgen produzieren, bin ich der Sache mal auf den Grund gegangen.
Ich hatte es mir natürlich nicht nehmen lassen, endlich die Idee von einem eigenen SOUND&RECORDING-Podcast umzusetzen. Doch bevor man überhaupt den ersten Satz aufnimmt, stellt sich die Frage nach dem Konzept, um die Technik dementsprechend anpassen zu können: Wird es ein Monolog, oder gibt es Gäste, mit denen man über ein Thema spricht oder die man interviewt? Wenn ja, wie viele Gäste gibt es mindestens oder maximal? Findet die Aufnahme immer im gleichen Raum statt, oder möchte man auch mal flexibel von unterwegs mit dem Smartphone aufnehmen? Dann stellt sich natürlich die Frage: Brauche ich ein Tischmikrofon oder ein Handmikrofon, eher ein dynamisches oder vielleicht ein Kondensator-Mikrofon mit Großmembran? Oder doch vielleicht Lavaliers? Im Grunde gibt das Podcast-Konzept vor, was gebraucht wird!
Wir haben uns umgeschaut, und für verschiedene Varianten Lösungen rausgesucht, um in der Landschaft der Podcast-Mikrofone einen Überblick zu bekommen und gehen darauf ein, was bei der Aufnahme und der Nachbearbeitung von Sprachaufnahmen generell beachtet werden sollte.
Wie viel Abstand halte ich zum Mikrofon?
Lauscht man den gängigen Podcasts in seiner Playlist, klaffen die Klangunterschiede weit auseinander. Die einen sind produziert wie eine professionelle Radiosendung, weil vielleicht sogar ein bekannter US-Sportsender dahintersteht, manche hören sich an, als wäre das Gespräch mit fünf Personen in einer Kneipe mit Hintergrundmusik, bei reichlich Bier und über lediglich ein Mikrofon aufgenommen worden. Hört sich nicht nur so an, ist auch so! Natürlich sollte man sich vorher Gedanken machen, wie man klingen möchte und wie hoch der eigene Qualitätsanspruch ist oder wie authentisch man klingen möchte.
Um nach Radio zu klingen, solltet ihr den Nahbesprechungseffekt nutzen, um den Bassanteil in der Stimme anzuheben und so dem Hörer das Gefühl zu geben, man sei direkt »im Ohr«. Dabei sollte jeder Gesprächspartner ein Großmembran-Kondensatormikrofon vor der Nase stehen haben, am besten mit Pop-Schutz und einem Abstand zwischen 5 und 10 cm zur Membran. Ich persönlich mag diesen Effekt sehr gerne, platziere den Popschutz deshalb ca. 5 cm vor der Membran und versuche, so nah wie möglich in den Pop-Schutz zu sprechen. Kopfhörer natürlich voll aufgedreht − Sänger-Krankheit. Aber Achtung: Auf Übersprechen achten. Mein halboffener Beyerdynamic DT 990 Pro ist dafür nicht gerade ideal, von ihm kann da schon mal was mit auf die Aufnahme kommen. Wenn ihr euch die Arbeit in der Nachbearbeitung erleichtern wollt, solltet ihr unbedingt mit geschlossenem Kopfhörer arbeiten.
Bei unseren Podcast-Aufnahmen nutze ich USB-Mikrofone, die ich an meinem MacBook anschließe. Häufig kommen dabei das Beyerdynamic FOX und das Apogee Hype Mic zum Einsatz. Beide sind Großmembran-Kondensatormikrofone, die ich unter den Audio- & MIDI-Einstellungen auf meinem MacBook als Hauptgerät einrichte, die Ein- und Ausgänge benenne, damit ich im I/O-Setting meiner DAW nicht durcheinanderkomme, und schon kann ich die beiden Mikros als In- und Outputs verwenden. Beide sind nämlich auch Interface und haben zusätzlich einen eigenen Kopfhörerausgang. In meiner DAW muss ich jetzt nur noch dieses Konstrukt als Interface angeben, und los geht’s.
Achtung: Jedes Mikrofon muss an einen eigenen USB-Port angeschlossen werden, mehrere Mikrofone über einen Adapter verbunden, funktioniert leider nicht. Mein MacBook Pro stammt aus 2017. Deshalb habe ich lediglich vier Ports mit jeweils Thunderbolt- bzw. USB-C-Anschluss. Bei zwei USB-Mikrofonen bräuchte ich also zwei Adapter. Deshalb nutze ich gerne das Apogee Hype Mic, da im Lieferumfang neben USB-A und Lightning- auch ein USB-C-Kabel dabei ist. Der Adaptierwahn hat ein Ende!
Wenn ihr eher einen etwas räumlicheren Sound haben und weniger nach Radio klingen möchtet, könnt ihr das Mikrofon auch in einem Abstand zwischen 20 und 40 cm vor euch auf den Tisch stellen. Bei vielen USB- oder Lightning-Mikrofonen wird ein Tischstativ mitgeliefert. Ich rate euch, jedem Gesprächsteilnehmer ein Mikrofon hinzustellen, statt dass sich mehrere Sprecher ein Mikrofon teilen. Letzteres kann mal eine Lösung sein, macht allerdings die Nachbearbeitung aufgrund des Übersprechens und der unterschiedlichen Lautstärke sehr schwierig bzw. zeitintensiv. Ist aber Geschmackssache und kann auch ein Stilmittel sein.
Egal ob Nahbesprechung oder eine Aufnahme mit mehr Raum, der Abstand zum Mikrofon sollte in einem gewissen Maße eingehalten werden, um den Pegel so konstant wie nur möglich zu halten, was bei einem dynamischen Instrument wie der Stimme sowieso schon schwierig genug ist.
Hintergrundgeräusche sind zu beachten. Auch wenn man in vielen Podcasts zwischendurch mal einen Hund bellen hört, die Bedienung nach der nächsten Bestellung fragt oder ACDC im Hintergrund laufen − was Atmosphäre schafft −, sollte man sie so gering wie möglich halten. Vor allem bei ACDC kann nach der Veröffentlichung auch mal die GEMA vor der Tür stehen.
Muss ich meinen Raum akustisch optimieren?
Nein, ihr müsst jetzt nicht eure Küche akustisch optimieren, um dort »Omis-Koch-Podcast« zu produzieren. Es reicht, wenn man darauf achtet, dass man nicht im verhallten Umfeld 3 Meter vom Mikrofon weg steht, sondern dann möglichst nah ins Mikrofon reinspricht. Dort eignen sich beispielsweise Ansteckmikrofone sehr gut, da man zum Kochen ja auch die Hände braucht. Für manche Umgebungen machen allerdings Reflexion-Filter Sinn. Die platziert man einfach hinter dem Mikrofon, um den Raum auszublenden. Auch mit der Richtcharakteristik der Mikrofone kann man arbeiten. So lässt sich beispielsweise mit einer Niere der rückwärtige Schall ausblenden. Teppiche im Raum, Vorhänge oder auch Bücherregale sind auch hilfreiche Absorber bzw. Diffusoren.
Kompression und Effekte – wie nehme ich auf?
Bei der Aufnahme vermeide ich es, die Kompression direkt mit aufzunehmen. Das Apogee Hype Mic verfügt beispielsweise neben dem neutralen Modus ohne Kompression über drei Kompressor-Einstellungen: leicht, mittel und stark. Bei einer unserer ersten Podcast-Aufnahmen haben wir die Presets durchgesteppt und sind bei »stark« hängengeblieben. »Boah, klingt das fett!« War auch so! Allerdings haben wir damit den Raumanteil stark angehoben, und die Stimme des Gesprächspartners, der im gleichen Raum saß, war mehr als deutlich auf dem gleichen Signal zu hören. Was dazu führt, dass die beiden eigentlich getrennten Signale in der Lautstärke schwieriger regelbar sind, weil man den anderen immer über dasselbe Mikrofon mithört. Darauf sollte bei einer Aufnahme mit Kompression geachtet werden.
Die Aufnahme erfolgt bei unserem Podcast mit 24 Bit und einer Sampling-Rate von 44,1 kHz. Beim Pegeln achte ich darauf, dass die Peaks zwischen −9 und −12 dB liegen. Am besten bittet ihr den Sprecher, beim Soundcheck laut und deutlich zu reden, um für mögliche Spitzen genügend Headroom zu haben.
Kleiner Rat: Macht sicherheitshalber eine Testaufnahme von 30 Sekunden und kontrolliert, ob auch wirklich alles aufgenommen wird.
Und auch wenn ihr im gleichen Raum seid, klatscht zu Beginn der Aufnahme kurz in die Hände, um in der DAW einen visuellen Bezugspunkt zu schaffen, an dem man eventuelle Latenzen durch Anpassen des Peaks auf beiden Audiospuren ausgleichen kann.
Nebengeräusche und Sprechpausen – was schneide ich raus?
Da ich mittlerweile ein paar Podcasts produziert habe, kann ich euch sagen, dass es zeitintensiv ist, laute Schmatzer, Atmer, Ähms und sonstige Körpergeräusche rauszuschneiden. Deshalb am besten auf Schmatzer und Atmer ins Mikro achten und wenn möglich vermeiden. Man kann auch, während der andere gerade spricht, seitlich am Mikrofon vorbei atmen statt direkt auf die Membran zu. Ähms sind so eine Sache; natürlich soll die Aufnahme auch authentisch bleiben, deshalb gehören Ähms dazu, und man sollte nur selektiert im Nachgang diese akustischen Indikatoren dafür, dass das Gehirn gerade arbeitet, rausschneiden.
Pausen und Wartezeiten, während der Apparat läuft, können auch verkürzt und rausgeschnitten werden. »Moment, da muss ich mal ganz kurz überlegen …« Wenn man es schafft, diese Pausen mit einer guten Moderation zu überbrücken, alles cool! Oft passiert in dieser Zeit allerdings nicht viel, und der Hörer fragt sich: »Ist der eingeschlafen?« Da muss man einfach ein gesundes Mittelmaß finden.
Allerdings wirkt es auch unnatürlich, wenn gerade eine Frage gestellt wurde und der Gegenüber ohne zu überlegen wie aus der Pistole geschossen antwortet. Man sollte es mit dem Verkürzen also auch nicht übertreiben.
Dann gibt’s ja mal Versprecher, die auch zum Charme der Veranstaltung beitragen und über die hin und wieder auch mal gelacht wird. Sehr wichtig! Manchmal verzettelt man sich allerdings und verliert sich in einem Wortgewirr, sodass es etwas dauert, bis man den Knoten entwirren kann. Hat man den Faden wiedergefunden, ist es am einfachsten, man beginnt den Satz, sofern man sich noch daran erinnert, einfach wieder von vorne. Das macht es beim Editieren einfacher, da man lediglich den Zwischenteil rausschneiden muss.
Langsam und deutlich reden ist genauso wichtig wie die eigentliche Selbstverständlichkeit, den anderen ausreden zu lassen und ihm nicht ins Wort zu fallen. Natürlich wird auch mal heiß diskutiert, es entstehen Wortgefechte, die einen Sieger brauchen. Das Reingrätschen stört allerdings oft den Fluss eines Gesprächs. Deshalb immer schön ausreden lassen, vielleicht einen kleinen Moment warten und dann erst reagieren.
Es macht auch Sinn, genau zuzuhören, was der andere sagt und sich Notizen zu machen, um Anschlussfragen später stellen zu können. Das hat sich bei mir durchgesetzt! Ich klicke dann vor der Membran die Miene aus dem Kuli, setzte mit der Spitze monumental auf … Hat alles seinen Charme!
Wie läuft das Editing?
Zuerst editiere ich redaktionell, d. h., ich schneide Versprecher, Pausen, auffällige Schmatzer und Ähms raus. Dabei schneide ich im 0-Durchgang der Sinuswelle, da sonst Knackser entstehen können. Innerhalb von Wörtern lässt sich am besten vor plosiven Lauten wie beispielsweise P oder K schneiden.
Bevor ich jedoch mit dem Schneiden beginne, lege ich Edit-Gruppen an und füge alle Spuren hinzu, die ich aufgenommen habe. Dadurch bearbeite ich alle Spuren simultan an der gleichen Stelle, egal ob ich schneide, einfüge oder die Länge der Audioblöcke anpasse − Es passiert auf allen Spuren synchron.
Außerdem wechsle ich in Pro Tools in den Shuffle-Mode. Auch in der kostenlosen DAW Audacity steht diese Funktion zur Verfügung − einfach auf die Stoppuhr im Werkzeug-Bereich klicken. Diese Möglichkeit gibt es in anderen DAWs auch!
Der Shuffle-Mode ist ein sehr wichtiges Feature, mit dem man von Beginn an bei der Sprachaufnahme arbeiten sollte, auch bei nur einer Spur, weil, wenn man beispielsweise etwas rausschneidet, einfügt oder die Länge verändert, das nachfolgende Audiomaterial automatisch nachgerückt wird. Es entstehen also keine Lücken und man muss nichts von Hand hin und her schieben. Dann müssen lediglich Fades bzw. Cross-Fades nach jedem Schnitt gesetzt werden, und das war es! Nachteil ist, dass gesetzte Marker nicht mitwandern.
Ganz wichtig ist allerdings auch das Arbeiten in den bereits angesprochenen Edit-Gruppen, um wirklich in allen Spuren gleichzeitig zu schneiden. Sonst läuft man Gefahr, die Synchronität der Spuren zu verlieren. Das hört man spätestens dann, wenn der eine schon antwortet, obwohl der andere noch gar nicht die Frage gestellt hat. Übersprechen durch Kopfhörer sind hier zum Beispiel hilfreich! Falls sie auffallen, weiß man, dass irgendwas nicht stimmt. Am besten drückt man dann so lange Undo, bis alles wieder übereinander läuft. Dann ist vielleicht viel Arbeit dahin, allerdings spart man sich das mühselige Anpassen per Hand und Gehör, um den Ursprungszustand wiederherzustellen.
Wurde bei der Aufnahme der Abstand zum Mikrofon mal nicht eingehalten, automatisiere ich die Lautstärke an wirklich extrem schwankenden Stellen auch gerne mal nach. Viele beginnen mit dem Sprechen und bewegen sich währenddessen erst zum Mikrofon hin. Dem kann man durch Automation der Lautstärke etwas entgegenwirken.
Aus diesem Grund und dem Fakt, dass viele einen nicht aussprechen lassen, ist es von Vorteil, nur ein Handmikrofon zu nutzen, was jeder dann bekommt, wenn er dran ist. Dann weiß jeder, dass er jetzt erst reden darf. Etwas Sarkasmus …
Feintuning
Sobald der grobe Schnitt stimmt, verlasse ich den Shuffle-Mode sowie die Gruppenbearbeitung und mache mich an Details. Hier scheiden sich die Geister, und man muss wirklich für sich selbst entscheiden, wie man es haben will. Ich schneide tatsächlich viele Sprechpausen raus und die Audiospuren frei. D. h., wenn einer redet, schneide ich in diesem Teil die Audiospur des anderen heraus; »Mhms«, Zwischenfragen und zum Gespräch dazugehörige Laute werden drin gelassen. Danach setze ich an allen Audioblöcken jeweils einen Fade-In und einen Fade-Out. Diese Vorgehensweise ist zwar mit einem höheren Zeitaufwand verbunden, ist aber mein Qualitätsanspruch an unseren Podcast. Danach wird konsolidiert, damit alle Schnipsel wieder in einem Block sind, fertig!
Natürlich kann man solche Sachen auch über ein Noisegate regeln. Allerdings nervt mich diese ständige Fummelei, um eine Einstellung zu finden, die für die gesamte Sprachaufnahme passt. Dann mache ich es lieber pragmatisch.
Wichtig ist beim Schneiden: digitale Stille vermeiden! Das heißt, es sollte immer mindestens eine aufgenommene Spur laufen. Um digitale Stille zu überbrücken, einfach ein paar Sekunden den Raum aufzeichnen und in den Bereich der entstandenen Stille einfügen. Fades setzen, läuft!
Bejahende »Mhms« oder »Ahas«, die dem Sprechenden signalisieren, dass man noch zuhört, können auch zu laut sein. Deren Lautstärke passe ich dann per Automation an. Rausschneiden funktioniert leider nicht, da man sie meistens durch Übersprechen auch über das Mikrofon des Redenden hört. Deshalb fällt es auch auf, wenn sie fehlen. Sie gehören aber auch zum Gespräch dazu.
Wenn es wirklich Hintergrund- oder Störgeräusche gibt, die mich extrem stören, packe ich natürlich auch gerne mal iZotope RX aus. Das ist einfach ein herausragendes Tool, um unerwünschte Sounds zu eliminieren.
Wie stelle ich den EQ ein?
Das EQing ist natürlich stark Abhängig vom Klang des Mikrofons, der Stimme selbst und vom eigenen Geschmack. Hier gibt es kein pauschales Setting, allerdings ein paar Orientierungshilfen: Grundsätzlich lässt sich sagen, dass man bei einer zu harten Stimme im Bereich 2,5 bis 4 kHz absenken kann. Wenn man im Nachhinein merkt, dass der Sprecher vielleicht doch zu nah am Mikrofon war und das Ganze etwas Luft braucht, kann man mit einem leichten Boost bei 6 kHz experimentieren, um dem Ganzen etwas Freiraum zu schaffen.
Viele setzen den Low-Cut schon bei 60 Hz. Klingt mir das immer noch zu bassig, dann gehe ich auch gerne mal auf 80 Hz. Wenn mir allerdings etwas Wärme fehlt, hebe ich noch bei den tiefen Mitten um 200 Hz an. Da meine Stimme etwas nasal klingt, bearbeite ich sie auch gerne zwischen 400 und 800 Hz, damit bekommt man die Sache etwas in den Griff.
Was mich beim Podcast-Lauschen am meisten stört, sind scharfe Zisch- und S-Laute. Deshalb ist der De-Esser mein Freund und Helfer, der, wenn die Frequenzbänder zwischen 7 und 11 kHz zu laut werden, diese etwas herunterfährt und die Sache für den Zuhörer angenehmer macht. Kleiner Tipp: Bei Sprechern mit starken Zischlauten reicht es oft, wenn man bereits bei der Aufnahme die Membran des Mikrofons etwas nach links oder rechts anwinkelt, um sowohl S-Laute als auch Schmatzgeräusche abzudämpfen.
Ich bin ein Fan von Kompression! Ich gebe da bei den Peaks auch gerne mal 5 dB Gain-Reduction rein. Bei Gesang kann man auch mal 15 dB geben, der muss sich im Mix aber auch gegen die Instrumente durchsetzen.
Der Kompressor sollte natürlich nicht Pumpen. Man muss allerdings beachten, dass dadurch natürlich auch Hintergrundgeräusche angehoben werden. Plötzlich hört man dann nämlich doch die durchgängigen subtilen Geräusche der Klimaanlage. Deshalb sollte man vorsichtig damit umgehen und mal bei 2 bis 3 dB Gain-Reduction anfangen und sich langsam nach oben durchhören.
Ich nutze eine kurze Attack-Zeit (30 ms). Die ReleaseZeit kann etwas länger eingestellt werden (150 ms), um Atmer und Störgeräusche nicht anzuheben. Bei der Ratio bleibe ich meistens zwischen 2:1 und 4:1. Noch was: den Kompressor stummschalten und an die Lautstärke des unkomprimierten Signals anpassen. Ansonsten ist die komprimierte Variante einfach lauter und klingt deshalb besser.
Das große Finale – Lautstärkeverhältnisse, EQ, Kompressor und Limiter
Zum Schluss passe ich die Lautstärkeverhältnisse der einzelnen Spuren aneinander an. Um dem Ganzen den letzten Feinschliff zu verleihen, lade ich mir einen EQ, einen Kompressor und einen Limiter auf meinen Master-Bus.
Mit dem EQ versuche ich, dem Ganzen den klanglichen Feinschliff zu verleihen, und hebe oft nur noch die Höhen etwas an, setze nochmal einen High-Pass bei 60 bis 80 Hz, hebe um 200 Hz an und booste bei 2,4 bis 4 kHz erneut. Im Prinzip sind das die gleichen Einstellungen, die ich auf jeder einzelnen Spur vornehmen. Dennoch habe ich das Gefühl, dass dadurch klanglich nochmal mehr eins daraus wird. Dazu trägt natürlich auch der Kompressor bei, den ich wirklich nur subtil wirken lasse und mit maximal 2 bis 3 dB Gain-Reduction fahre. Und unbedingt auf In-Ear-Kopfhörern gegenhören. Podcasts werden überwiegend unterwegs vom Smartphone gehört, deshalb macht es Sinn, den Sound damit nochmal zu verifizieren.
Zum Schluss kommt der Limiter, den ich auf IRC III Balanced stelle, bei −0,1 dB limitiere und maximal 2 dB von den Peaks wegnehme. Lautheit spielt bei Podcasts eine geringere Rolle, da die Kodierungsverfahren und Algorithmen der verschiedenen Plattformen das Ganze sowieso nochmal anpassen und verändern. Das sollte man vorher beachten.
Außerdem steht im Podcast die Sprache im Mittelpunkt. Die darf auch dynamisch sein. Es gibt eben vielleicht emotionalere Passagen, die entweder laut oder leiser sind, je nach Stimmung. Das ist auch das Schöne am Podcast: Der Charakter der Personen kommt zum Vorschein.
Nach dem Bouncen schneide ich nur noch die bereits »gemasterten« Teile wie Intro, Sweeps, Zwischenmusik und Outro rein. Und ab geht’s auf die Ohren!
Authentisch muss es sein
Das ist allerdings nur meine Arbeitsweise! Das wichtigste ist, dass man für sein Podcast-Format den richtigen Sound findet, der Charakter überträgt und authentisch ist. Bei einem Podcast zu Abenteuerreisen macht es beispielsweise durchaus Sinn, in der Natur aufzunehmen. Einen Bier-Podcast würde ich auch in einer Kneipe aufnehmen. Ich habe mich für den in diesem Artikel beschriebenen Weg entschieden, weil bei uns »Sound« bereits im Namen steht und wir selbstverständlich ein hohes klangliches Niveau erreichen möchten.
Dass man aber auch ganz anders an die Sache herangehen kann, erfahrt ihr in unserem Podcast zum Thema Sprachproduktion. Darin erzählen die beiden Sounddesigner und Audio Engineers Patrick Leuchter und Sebastian Heinrich unter anderem, warum sie nicht im Shuffle-Mode arbeiten, warum man auch mit einem mobilen Recorder mit fester Stereomikrofonie einen Podcast aufnehmen kann und sie keine Stellen freischneiden.
Danke für diesen Podcast. Da bekommt man wieder Lust selbst mal wieder tätig zu werden. Ich persönlich mag sehr authentische Podcasts. Wie ist das eigentlich mit der Bitrate? Ist die am Ende, wenn es als MP3 veröffentlicht wird oder auf Youtube landet nicht sowieso exrem gering?
danke für dein Feedback! Freut uns, dass dich der Podcast motiviert, selbst wieder was zu machen. 🙂
Die Bitrate, die am Ende ausgespielt wird, ist von Plattform zu Plattform unterschiedlich. Die Plattformen arbeiten eigentlich entweder mit WAV, Opus, MP3, AAC oder Voribs. Bei den Formaten gibt es Bitraten von 32 bis 320 kbps. Wir arbeiten beispielsweise mit dem Host Podigee. Dort lade ich eine WAV-Datei hoch, die wird mit allen Infos wie Shownotes, Sprungmarken usw. kodiert und auf alle Plattformen im jeweiligen Format ausgespielt.
Danke für das Interview, doch leider bleiben die Antworten beim Thema Attack und Release sehr schwammig. Es heißt lediglich “kurze” Attack und Release. Damit kann man nun gar nichts anfangen. Was um Himmels Willen ist denn “kurz”? Schlagen Sie zehn Toningenieursbücher auf, werden Sie 10 verschiedene Zeiten finden, von 0,2 ms bis 40 ms gilt als “kurze” Attack. Wäre schön, wenn Ihr konkrete Zahlen für Attack und Release nachtragen könntet, damit man mal eine Idee hat….10 ms Attack und 100 ms Release z.B.
danke für deinen Kommentar. Eigentlich sollte man hier seinen Ohren vertrauen, denn das kann von Gerät zu Gerät oder Plug-in zu Plug-in total unterschiedlich sein.
Pauschal lässt sich sagen, dass man sich irgendwo zwischen 100 und 200 ms im richtigen Bereich bewegt. Wenn du nachher bei 80 ms landest, muss das allerdings nicht falsch sein.
Am Ende entscheiden Gehör und Geschmack.
Hallo, ich habe eine Frage. Woran muss man sich Rechtlich orientieren wenn man anonyme Interviews verwenden möchte? Die Befragten wurden über die Verwendung ihrer Sprachaufnahmen informiert, sind volljährig und anonym behandelt.
würde mich sehr über eine Antwort freuen da ich in diesem speziellen Fall noch nichts im Internet finden konnte.
lg
ale
wenn die Befragten darüber in Kenntnis sind und ihr Okay gegeben haben, und wenn alles anonym bleibt, sollte es da keine rechtlichen Probleme geben. Im Zweifel aber nochmal einen Anwalt befragen. Wir haben uns hier nur mit der Technik befasst.
Lieben Gruß aus der Redaktion.
vielen Dank für den informativen Artikel. Wir sind gerade dabei unseren Podcast zu starten. Wir haben auch schon erste Testaufnahmen gemacht. Leider kämpfen wir mit folgendem Effekt. Wenn wir ins Micro sprechen dann passt alles soweit, wenn es aber leise ist dann ist das Micro auch leise. Es ist kein Grundrauschen zuhören. Wenn man dann wieder spricht hört es sich abgehackt an. Es hört sich also so an als ob das Micro immer an und aus geht.
Hallo Gabriel,
das kann auch tatsächlich so sein. Klingt als wäre da ein sogenanntes Noise-Gate aktiv. Das wird sich sicher irgendwo in den Audioeinstellungen abschalten lassen.
Lieben Gruß aus der Reaktion
Hey,
Ihr habt euch ja über das Problem des Rootings unterhalten. Sobald man auf der digitalen Ebene ist, sprich direkt ab dem ankommenden Signal des Interfaces am Rechner, empfehle ich eine Software von VB Audio, welche bei Streamern sehr bekannt ist. Voicemeeter Potato ist mit allem ausgestattet was man benötigt. Das Interface wird als Output 1 über den ASIO Treiber konfiguriert. Über digitale Eingänge in den Mischpultsimulator setzt man seinen Windows Sound. Wenn man möchte, setzt man Skype separat auf einen anderen virtuellen Eingang. Als virtueller Eingang hat man 3 Eingänge zur Verfügung. Dem gegenüber stehen dann 5 reale Ausgänge, welche dann beispielsweise das Interface ist, wo ggf. sogar, das hängt vom Interface ab, jeder Ausgangskanal mit einem anderen Signal genutzt werden kann. Genauso lassen sich hier aber auch auf einen Ausgangskanal beispielsweise alle 3 Eingangssignale (Windows Audio, Skype, DAW) bündeln. Über einzelne ASIO Treiber kann die Software dann, da Voicemeeter mit eigenem ASIO Treiber als Gerät nutzbar ist, in einer DAW verwendet werden und dann sowohl Eingangs als auch Ausgangssignal ebenfalls über das Mischpult (Voicemeeter), und damit über alle gewählten Ausgänge oder Eingänge verteilt werden. Gebündelte Signale oder auch nur Mikrofon lassen sich auf einen der 3 virtuellen Outputs legen und damit als Mikrofon oder eben in einen Recorder für die Aufnahme legen. Bleibt man auf der ASIO Treiberbasis so schafft man mit heute durchschnittlicher Hardware bei Buffer von 512 samples gute 12 ms Latenzzeit, die kaum störend wirkt. Geht man auf 256 Samples so ist die Latenz nicht mehr spürbar. Voicemeeter unterstützt auch MME, WDM und KS Treiberformate. Diese funktionieren erfahrungsgemäß mit 512 Samples, kommen aber dabei durch mehrere Schritte, die für ein Rooting benötigt werden, nur schwer ohne Latenz aus. Da würde ich dann zu dem ASIO4All Treiber greifen. Wenn Interesse besteht, würde ich anbieten, zu allen Rootingmöglichkeiten der Software ein Youtubetutorial zu erstellen. Leider ist mir aufgefallen, dass bei der Vielzahl an vorhanden Tutorials, noch einige kleine Fehler mit erklärt werden, die am Ende Latenz kosten und unnötig für eine negative Erfahrung sorgen, die nicht sein müsste. Die Software ist mit 8 stündiger Unterbrechung kostenfrei. Doch kennt man die Möglichkeiten zahlt man für dieses Programm gerne einmal 19 EUR und die Unterbrechung ist weg. Die Wartezeit bis die Software weitere 8 Stunden genutzt werden kann beträgt nur 10 Sekunden. Das halte ich für verkraftbar, um sich vorerst das Programm anzuschauen. Sollte euch die Software aber schon bekannt sein, entschuldigt bitte ?
LG Sebastian
Danke für diesen Podcast. Da bekommt man wieder Lust selbst mal wieder tätig zu werden. Ich persönlich mag sehr authentische Podcasts. Wie ist das eigentlich mit der Bitrate? Ist die am Ende, wenn es als MP3 veröffentlicht wird oder auf Youtube landet nicht sowieso exrem gering?
Hey Martin,
danke für dein Feedback! Freut uns, dass dich der Podcast motiviert, selbst wieder was zu machen. 🙂
Die Bitrate, die am Ende ausgespielt wird, ist von Plattform zu Plattform unterschiedlich. Die Plattformen arbeiten eigentlich entweder mit WAV, Opus, MP3, AAC oder Voribs. Bei den Formaten gibt es Bitraten von 32 bis 320 kbps. Wir arbeiten beispielsweise mit dem Host Podigee. Dort lade ich eine WAV-Datei hoch, die wird mit allen Infos wie Shownotes, Sprungmarken usw. kodiert und auf alle Plattformen im jeweiligen Format ausgespielt.
Grüß, Marc
Danke für das Interview, doch leider bleiben die Antworten beim Thema Attack und Release sehr schwammig. Es heißt lediglich “kurze” Attack und Release. Damit kann man nun gar nichts anfangen. Was um Himmels Willen ist denn “kurz”? Schlagen Sie zehn Toningenieursbücher auf, werden Sie 10 verschiedene Zeiten finden, von 0,2 ms bis 40 ms gilt als “kurze” Attack. Wäre schön, wenn Ihr konkrete Zahlen für Attack und Release nachtragen könntet, damit man mal eine Idee hat….10 ms Attack und 100 ms Release z.B.
Hey Tom,
danke für deinen Kommentar. Eigentlich sollte man hier seinen Ohren vertrauen, denn das kann von Gerät zu Gerät oder Plug-in zu Plug-in total unterschiedlich sein.
Pauschal lässt sich sagen, dass man sich irgendwo zwischen 100 und 200 ms im richtigen Bereich bewegt. Wenn du nachher bei 80 ms landest, muss das allerdings nicht falsch sein.
Am Ende entscheiden Gehör und Geschmack.
Lieben Gruß,
Marc
Hallo, ich habe eine Frage. Woran muss man sich Rechtlich orientieren wenn man anonyme Interviews verwenden möchte? Die Befragten wurden über die Verwendung ihrer Sprachaufnahmen informiert, sind volljährig und anonym behandelt.
würde mich sehr über eine Antwort freuen da ich in diesem speziellen Fall noch nichts im Internet finden konnte.
lg
ale
Hallo,
wenn die Befragten darüber in Kenntnis sind und ihr Okay gegeben haben, und wenn alles anonym bleibt, sollte es da keine rechtlichen Probleme geben. Im Zweifel aber nochmal einen Anwalt befragen. Wir haben uns hier nur mit der Technik befasst.
Lieben Gruß aus der Redaktion.
Hallo Marc,
vielen Dank für den informativen Artikel. Wir sind gerade dabei unseren Podcast zu starten. Wir haben auch schon erste Testaufnahmen gemacht. Leider kämpfen wir mit folgendem Effekt. Wenn wir ins Micro sprechen dann passt alles soweit, wenn es aber leise ist dann ist das Micro auch leise. Es ist kein Grundrauschen zuhören. Wenn man dann wieder spricht hört es sich abgehackt an. Es hört sich also so an als ob das Micro immer an und aus geht.
Hallo Gabriel,
das kann auch tatsächlich so sein. Klingt als wäre da ein sogenanntes Noise-Gate aktiv. Das wird sich sicher irgendwo in den Audioeinstellungen abschalten lassen.
Lieben Gruß aus der Reaktion
Hey,
Ihr habt euch ja über das Problem des Rootings unterhalten. Sobald man auf der digitalen Ebene ist, sprich direkt ab dem ankommenden Signal des Interfaces am Rechner, empfehle ich eine Software von VB Audio, welche bei Streamern sehr bekannt ist. Voicemeeter Potato ist mit allem ausgestattet was man benötigt. Das Interface wird als Output 1 über den ASIO Treiber konfiguriert. Über digitale Eingänge in den Mischpultsimulator setzt man seinen Windows Sound. Wenn man möchte, setzt man Skype separat auf einen anderen virtuellen Eingang. Als virtueller Eingang hat man 3 Eingänge zur Verfügung. Dem gegenüber stehen dann 5 reale Ausgänge, welche dann beispielsweise das Interface ist, wo ggf. sogar, das hängt vom Interface ab, jeder Ausgangskanal mit einem anderen Signal genutzt werden kann. Genauso lassen sich hier aber auch auf einen Ausgangskanal beispielsweise alle 3 Eingangssignale (Windows Audio, Skype, DAW) bündeln. Über einzelne ASIO Treiber kann die Software dann, da Voicemeeter mit eigenem ASIO Treiber als Gerät nutzbar ist, in einer DAW verwendet werden und dann sowohl Eingangs als auch Ausgangssignal ebenfalls über das Mischpult (Voicemeeter), und damit über alle gewählten Ausgänge oder Eingänge verteilt werden. Gebündelte Signale oder auch nur Mikrofon lassen sich auf einen der 3 virtuellen Outputs legen und damit als Mikrofon oder eben in einen Recorder für die Aufnahme legen. Bleibt man auf der ASIO Treiberbasis so schafft man mit heute durchschnittlicher Hardware bei Buffer von 512 samples gute 12 ms Latenzzeit, die kaum störend wirkt. Geht man auf 256 Samples so ist die Latenz nicht mehr spürbar. Voicemeeter unterstützt auch MME, WDM und KS Treiberformate. Diese funktionieren erfahrungsgemäß mit 512 Samples, kommen aber dabei durch mehrere Schritte, die für ein Rooting benötigt werden, nur schwer ohne Latenz aus. Da würde ich dann zu dem ASIO4All Treiber greifen. Wenn Interesse besteht, würde ich anbieten, zu allen Rootingmöglichkeiten der Software ein Youtubetutorial zu erstellen. Leider ist mir aufgefallen, dass bei der Vielzahl an vorhanden Tutorials, noch einige kleine Fehler mit erklärt werden, die am Ende Latenz kosten und unnötig für eine negative Erfahrung sorgen, die nicht sein müsste. Die Software ist mit 8 stündiger Unterbrechung kostenfrei. Doch kennt man die Möglichkeiten zahlt man für dieses Programm gerne einmal 19 EUR und die Unterbrechung ist weg. Die Wartezeit bis die Software weitere 8 Stunden genutzt werden kann beträgt nur 10 Sekunden. Das halte ich für verkraftbar, um sich vorerst das Programm anzuschauen. Sollte euch die Software aber schon bekannt sein, entschuldigt bitte ?
LG Sebastian