あなたは、ネットの動画共有サイトYouTubeの動画を見ることが多いですか? 私はわりとよく見るほうだと思います。
ただ、最近はマンネリ化した動画が増えているように感じます。だから、見たい動画がなかなか見つからない状況になりつつあります。
YouTubeの動画をわりと見る人がいたとして、日本の配信者以外の動画を見る比率はどのくらいでしょうか。私は海外の配信者の動画もよく見ます。
専門的な動画が海外の配信者の動画に多いからです。
たとえば、映画の「ビスタビジョン」についても、日本の配信者でこれを専門的に詳しく解説する動画を私は知りません。
YouTubeも技術を日に日に進歩させ、海外の配信者の動画であっても、少し前であれば、日本語に翻訳された字幕を表示させ、内容を理解していました。
それが今は、「オートダビング」へと進化を遂げつつあります。
YouTubeのオートダビングはご存知でしょうか?
自分が配信する動画にこの機能を設定すると、日本語以外の言語(現在対応するのは9言語)に自動で翻訳されるだけでなく、それが吹き替えられた音声を動画に合わせて流してくれるようになります。
そのようなオートダビングに対応した次の動画を見ました。
本動画の配信者は英語圏で、フィルムカメラを使い、フィルムの感度を検証しています。
この検証で使うのはISO感度200のフィルムです。それをカメラに装填し、スポットメーターで露出を計り、その設定で撮影し、その結果を確認しています。
その結果、本動画の配信者は、ISO200のこのフィルムを使い、自分が望むような露出を得るには、本配信者の場合は、ISO125がいいというような検証結果に落ち着きそうなことを動画で語っています。
このように、オートダビングに対応した動画であれば、日本語以外で制作された動画を日本人の私が見ても、翻訳字幕を眼で追う必要がなくなり、映像そのものをより愉しめるようになります。
動画ですから、字幕の文字ではなく、映像そのものを堪能したいものです。
ただ、オートダビングを適用することを前提に動画を作るのであれば、注意する点があります。それは、ひとつのカットに自分の語りを入れる際は、文字数をあまり多くしないことです。
それぞれの言語に翻訳された言葉が吹き替えられたように再生されるため、カッとごとに語りが収まるように自動で翻訳されます。だから、話していることが多いと、カッとの長さに無理やり収めるため、早口言葉で話したような吹替になってしまいます。
だから、ゆっくりと話すようにすることが、オートダビングによる吹替翻訳にされた場合は、聴き取りやすくなります。
今回の更新で、紹介する動画を取り上げたのは、オートダビングの便利さを伝えるためではありません。今回の動画を見て、日本語に翻訳された吹替を聴いていて、非常に気になったことがあったからです。
本更新をする本日は、「5月18日」です。これを「5/18」のように表記することができます。
この表記に準じたような翻訳が本動画に登場します。
本動画の配信者が、レンズの絞りを3分の1段刻みで調節し、撮影する箇所があります。
その部分を、日本語に翻訳された字幕で確認すると次のような表示になります。
(レンズの)絞りを3分の1ほど開けました
英語が日本語に正しく翻訳されています。しかし、同じ部分を、日本語に翻訳されたオートダビングで見ていたとき、吹替がとんでもなく間違った吹替をしていました。
「3分の1」は「1/3」と書くこともできます。これに、オートダビングの日本語翻訳が影響されたのか、吹替では「1/3」が「1月3日」になっていました。
これでは意味をなさなくなります。
次のフレームは1月3日段開放です
といわれても、頭が混乱するだけです。
今回はそれが、「3分の1」のことだとわかりました。もしも、すぐにわからないことを誤翻訳されたら、わからないまま動画を見終わってしまうことになってしまいます。
今回は笑い話で済ませられます。しかし、時と場合によっては問題を引き起こしかねませんので、YouTubeには、オートダビングの性能向上を望んでおきましょう。
今後、ますまう便利な機能であろうことは否定できませんから_。