ここ一カ月ばかり、あるいはそれ以上、自分の声を収録しては、それがより良い声に聴こえるような「研究」をしてきました。
その過程では、イコライザー(EQ)をかけてみたり、プラグインで音を圧縮するようなこともしています。
一度はそれを止めて、素の声のままでいいのでは、と考えたりもしました。
しかし、そのすぐあと、やっぱり適度な「加工」が必要だと考え直すようなことを繰り返しました。
声の録音に使うのは、ZOOMのフィールドレコーダー、F2と付属のラベリアマイク(ピンマイク)です。
F2に付属するマイクはコンデンサーマイクで、どの方向の音も拾う無指向性です。
マイクを取り付ける位置も変更し、録った音で聴き比べたりしました。
コンデンサーマイクについては、私の考え違いがあったことにあとで気がつきました。
マイクの種類にはほかに、ダイナミックマイクがあります。ダイナミックとコンデンサーでは感度に違いがあります。ダイナミックマイクは感度を低く設計されています。
感度が低いのは性能が劣るわけではありません。さまざまな用途に合わせてマイクの感度が設定されているのです。
歌手がステージで歌を歌うときに使うマイクはダイナミックマイクです。これがもしもコンデンサーマイクであったら、感度が高すぎるため、手で持って、口に近づけて大きな声で歌ったら、声が割れてしまいます。
コンデンサーマイクを手で握っていたら、マイクを握り直すたびに雑音が発生してしまう可能性が高くなります。
マイクスタンドに取り付ければいいと考える人がいるかもしれません。しかし、歌手がコンデンサーマイクから離れたところに立って歌う必要があり、ヘンな感じになりかねません。
ダイナミックマイクは感度を低く設定されているので、5センチ程度までマイクに口を近づけて歌うと、声だけを拾い、バックで演奏する楽器の音をカットしてくれる効果が生まれます。
マイクの距離ですが、コンデンサーマイクは感度が高いため、「50センチ程度離して使うと良い」というようなことを書きました。この部分が私の考え違いです。
感度が高いコンデンサーマイクでも、50センチは、良い音を拾える限度の距離になります。
音の専門家で、ネットの動画共有サイトのYouTubeでご自分のチャンネルを運営されている人に桜風涼(はるかぜ・すずし)氏(1965~)がいます。
桜風氏がショットガンマイクについて語る動画をもう一度見直し、マイクを使う上でのマイクと口の距離を確認しました。
どんなに高価なマイクを使っても、50センチ以上離して使ったら、良い声を録音できないとし、それはコンデンサーマイクも同じだと話されています。
カメラに向かって自撮り動画を撮るVloggerは、もしかしたらカメラに内蔵されているマイクや、外部マイクを使っていても、カメラの上に固定して使っている人もいるかもしれません。
それらのマイクが、配信者から1メートル以上離れてしまったら、どんなに高価や評判の良いマイクであっても、その性能が発揮されることはないそうです。
今回の更新内容には直接関係ありませんが、マイクをセッティングする場合は、マイクの向きも重要になる、と本動画で述べられています。
ショットガンマイクのような高感度のマイクを水平方向に向けてセッティングするのは良くないそうです。理由は、マイクが向いている方向で発する不必要な音を一緒に拾ってしまうからです。
映画やテレビの撮影で、録音を担当するスタッフが、ショットガンマイクを長い棒の先につけ、出演者の声を収録する風景を見たことがあるでしょうか?
録音スタッフが持つマイクの先はどの方向を向いていますか? 下ですね。下方向からも雑音は発生しますが、水平方向に比べれば少なくなります。
カメラに写らない程度にマイクの先を出演者の頭の上に近づけ、より良い声を拾おうとするのです。プロの現場でも、より良い音を拾うため、このような苦労をするのです。
同じ理屈で、Vloggerがショットガンマイクを使うのなら、できれば、カメラに写らない程度まで自分の頭の上に近づけ、声を拾うのがベストとなります。
ただ、自分専用のスタジオのようなものがあれば別ですが、それがなく、撮影のたびにセットし直すのであれば面倒そうです。
ワンマンオペレートで自分の声を、楽して良い声に収録したいのであれば、ラベリアマイクで拾うのが良い、と桜風氏は推奨しています。
私はラベリアマイクの有効性を理解し、F2に付属するマイクを、シャツの第二ボタンのあたりにつけて自分の声を拾うようにしました。
撮った音を、私はiZotopeのRX 10 Standardという音声編集ソフトを使い、必要な部分だけにカットしたり、音量を整えたりするのに使っています。
ZOOMのF2の最大の魅力は、32bit floatで録音できることです。この機能は私にとっては絶大です。私は今後、自分の声を録るのであれば、32bit float以外で録音することはしません。
私の場合、Vloggerの人たちと違い、大声でしゃべるようなことはしません。会話するときと同じか、それよりも小さな声で、たとえば芥川龍之介(1892~1927)の作品を音訳します。
32bit floatで録音するときは、録音レベルの調節はしません。そもそも、32bit floatのレコーダーは録音レベルの調節ができないようになっています。
32bit floatで録音した音は、編集段階で、自分が望むような音量にいくらでも調節できるのです。私のように小声であっても、普通の声量にできます。
私はRX 10に搭載されているLoudness Controlで声の大きさを揃えます。Loudness Controlにプリセットがいくつもありますが、私は、声を録音した音声ファイルにはAudiobook Deliberyを使っています。
このLoudness Controlを適用させたあと、EQやコンプをかけ、より良い音になった、と考えたりしていたわけですが、その考えが正しいのか、疑問を持ちました。
見直すきっかけになったのは、YouTubeで次の動画を見たことです。
より良い音にするためにEQを使ったのに、その結果が大切な音の成分を失わせたのでは意味がありません。
たとえば、最も低い音域をカットするローカットがあります。その帯域だけをカットしたつもりでも、実はそれ以上の帯域もカットされやすくなっており、低音部分に含まれる必要な成分までカットされてしまいかねない、ということです。
同じようなことは各帯域に含まれています。
専門知識を持つ人であれば、EQを使うことで、音に磨きをかけることができます。
しかし、私のように、聞きかじった程度の浅い理解の人間が、自分本位のやり方でEQを使い、その結果、音質をよくするどころか、大切な音の成分を失う危険を冒すのであれば、はじめから使わない方が安全なのでは、と考え直しました。
同じことは音を圧縮するコンプレッサーでもいえそうです。
ということで、それぞの使い方を正しく理解できるまでは、使うことを封印することにします。
RX 10には、音声ファイルを学習させて、ノイズを除去してくれるRepair Assistantの機能が備わっています。これは使っても問題なさそうに思いますが、私は、唇や舌から発生するclickを除去することに特化したMouth De-clickのみを使ってみようと考えました。
そのような考えの下作った音声ファイルを下に埋め込みます。
今回も、芥川の中編小説『河童』(1927)の一部を音訳しています。
私の理解は少しずつしか進みません。それでも、進んだ分だけは自分の身になった、と考えることにしましょう。