今は音への興味を持っています。
ネットの動画共有サイトYouTubeには、配信者が画面に登場し、カメラに向かって、その配信者の専門分野の話をする動画が数多くあります。
カメラの性能が向上しました。また、スマートフォンのカメラ機能も、カメラと同等といわれるほど良くなったといわれます。ですから、たとえば、スマホを前に置いて話すだけで、問題のない映像が比較的手軽に得られる時代となりました。
問題は音声です。
配信者がカメラに向かって話す動画で、聴き取りにくい音声が少なくありません。
音声の話に入る前に気になることがあります。
同じようなスタイルの動画でも、欧米の配信者は、ほぼ例外なく、カメラのレンズをしっかりと見つめて話します。レンズ以外のところを見て話す欧米の配信者の動画は見たことがありません。
一方、日本人の配信者は、はじめから終わりまで、レンズを見ないで話をする例が少なくありません。そんな動画は見ていると違和感を持ちます。
私はテレビニュースを見ませんが、テレビでニュース原稿を読み上げるアナウンサーが、カメラのレンズを見なかったら違和感があるでしょう。
テレビのアナウンサーは、番組を見る視聴者に向けてニュースを読んでいるのです。
YouTube動画であっても、それは基本ではありませんか? YouTube動画だからいい加減でもいいわけでもありません。
たとえば、誰かと一対一で会話をするとき、相手が自分の眼を見ないで話したら、どんな気持ちになりますか。無視されているように感じるかもしれません。
映画やドラマでは、演じる俳優がカメラのレンズを直視することは、特別な意図を持たせたい場合以外はありません。そんなことをしたら不自然に見えるからです。
映画やドラマで演じられる劇は、劇に登場する登場人物同士のやり取りを観客に見せるものです。その場合、俳優は、他の俳優と視線を交わします。
観客はその劇の登場人物ではなく、劇の傍観者です。劇の中の俳優が傍観者を見ることはないのですから、カメラのレンズを見て演技をすることはあり得ません。
このあたりの理屈はおわかりいただけたでしょうか。
カメラのレンズを見ないで話をするYouTuberは、一体、誰に向かって話をしているのだろうと思います。その種の動画を見る人は、個人差はあるでしょうが、私は疎外感を持ってしまいます。
日本の動画配信者の多くに見られる視線の話はこのぐらいでやめます。ことあとも、それで気がついたことがあれば、本コーナーで書きます。
話の脱線が続いたので、本来の話題が忘れられてしまったかもしれません。
カメラ機能の向上により、昔に比べて、映像は、誰が撮っても問題が少なくなりました。それに比べて、音声は疎かにされている印象です。
何かについて話す動画で、音声が聴き取りにくいと、それを見聞きする視聴者は難儀をします。言葉が明瞭でなく、注意をして聴いていても、聴き取りにくいからです。
そのような指摘をされた配信者は、使用するマイクの性能や、マイクの位置が良くないことが、そうした音声になる原因と考えるかもしれません。
私が音に興味を持ったのは、昨日、あることをしたからです。
私は、2日前の本コーナーで、ストロボについて書きました。
その中でシンクロ接点の話をしています。文章で書いただけではわかりにくいだろうと考え、シンクロ接点がついたデジタル一眼レフカメラや、シンクロ接点のないカメラでシンクロ接点を使えるようにするためのアダプタ、ストロボや露出を計るための露出計を民生用ビデオカメラで撮影し、短い動画を作っています。
編集が終わった動画に、自分の声で説明の語りを入れました。その過程で、自分の声を、誰が聴いても聴き取りやすいように、イコライザーで修正をしました。
それをすることで、声の修正をすることに楽しみのようなものを感じました。
私が自分の声を収録するのに利用したのは、ZOOMのフィールドレコーダー、F2です。レコーダーにはラベリアマイクが付属しています。そのマイクを胸元につけ、声の収録をしました。

喋っているのが自分ですから、自分で録音した音声を聴く限りは、何を話しているかはわかります。しかし、他人が聴いたときに果たして聴き取りやすいのかを考えながら聴きました。
私の声はやや低く、話し方が良くないせいか、明瞭には聴こえません。
そこで、私が音声の編集をするときに使うiZotopeのRX 10 Advancedを使い、修正をしました。私がそのために使ったのは、同ソフトにプラグインとして入れている”Ozone 11 Equalizer”です。
私はこの方面の素人ですが、このイコライザーを使い、自分の話す声を聴きながら、修正をしてみました。
下の画像は、私が修正を終えたあとの波形を示すものです。これが正しい修正かどうかわかりません。専門家にいわせると、間違っているといわれるに違いありません。

低周波数帯と高周波数帯をカットした波形は、かまぼこ型になっています。
音を聴きながら修正をしていると気がつくことがあります。低周波数と高周波数をカットすると、音にどんな効果が表れるかです。
こうした修正を自分でしたことがない人は、低周波数帯をカットすると低音が弱くなり、高周波数帯でも同じことが起きると想像するかもしれません。
私が、それよりも感じたのは、音は「相対的」であることです。
低周波数帯をカットすると、相対的に、高周波数帯の音が持ち上がるように感じます。高周波数帯で同じことをした場合も同じ効果です。それを交互にすることで、全体の音のバランスが整えられ、聴き取りやすい音声になるように感じました。
周波数帯をカットするにしても、カッとの角度を鋭くしたり、緩くしたりで、音の印象は変わります。また、どの周波数までカットするかでも違って聴こえます。
デジタルに比べてアナログの音は、低周波数帯の音が弱いとするYouTubeの検証動画があります。その動画では、だから、アナログの音は低周波数帯の音が物足りないと結論付けています。
しかし、今書いたことをそれに当てはめれば、低周波数帯の音が弱められたことで、相対的に、高周波数帯の音を豊かにする効果がある可能性もあるのではと素人の私は考えたりしました。正しい考えかどうかはわかりません。
音の周波数を測定器で測定して得られる波形から受ける印象と実際に聴こえる音は、周波数の関係が相対的なものであることを考えると、違ったものになるのではないでしょうか。
YouTubeで動画を配信する人で、自分の声が思い通りの声に聴こえないと感じている人は、マイクの扱い方をあれこれするよりも、収録した音をイコライザーで修正することで、より良い結果が得られると思います。
あとは、カメラに向かって話をされる方は、どうか、カメラのレンズをしっかりと見て、動画の撮影をお願いします。
下に埋め込んだ動画は、カメラのレンズをしっかりと見て話されています。また、音声もとても聴き取りやすいです。ラベリアマイクをつけているようにも見えません。どのようななマイク設定をしているのでしょうか。
活舌が良い人なのでしょうかね。