[2]動画像と音声の同期
日頃、何気なく見ているテレビですが、実は技術的には大変難しいことを見えないところで扱かっています。一番重要なことは、動画像と音声の同期を保って再生することです。もし、同期が保たれていないとどうなるでしょうか? 例えば、ニュース番組では、アナウンサーの唇の動きと音声がまったく違ったタイミングで再生(放送)されることとなり、これは、視聴者にとっては大変不快な現象です。
アナログ放送では、動画像と音声に別々の周波数を割り当て、送信側でタイミングを調整して放送することによってこれを実現しています。しかしこの方法では、動画像と音声に、ある一定の周波数帯域がそれぞれ固定的に割り当てられてしまいます。このため、例えば、音声データが発生しない無音区間では、本来データとして何も送らなくてもいいはずなのに、常時固定割当された帯域を使用するため、データの伝送効率の観点からは周波数帯域を無駄に使用していることになります。
これに対し、デジタル放送では、MPEGのように高い圧縮率を実現する符号化方式を使用しているため、そのような無駄を省いた「同期の仕組み」を利用します。
[3]多重化する仕組み
具体的には、多重化(図1-6参照)という技術を使用し、動画像(V:Visual)と音声(A:Audio)のそれぞれに再生時間を示す情報を付け加えることで、無駄のない情報の伝送を実現します。また、多国語放送や、マルチアングル・プログラムといったDVDにあるような機能もデジタル放送には必要になります。これを実現するのも多重化技術です。ここでマルチアングル・プログラムとは、1つの番組を別々の角度(マルチアングル)のカメラから撮影し、再生時にユーザーが自分の好みのカメラの映像に切り替えて表示できるアプリケーションのことです。
また、マルチメディア放送を実現するためには、動画像と音声以外にもさまざまな情報、例えばテキスト情報や静止画情報などを統一的な方法で伝送する必要があります。そして、必要ならば、それらの情報を動画像と音声と同期して表示する必要があります。
以上に述べたような機能を、一手に引き受けて実現しているのがMPEG-2 TS(トランスポート・ストリーム)というプロトコル(『デジタル放送教科書』第3章、第4章参照)であり、デジタル放送には必須のプロトコルとなっています。
※この「Q&Aで学ぶ基礎技術:デジタル放送編」は、著者の承諾を得て、好評発売中の「改訂版 デジタル放送教科書(上)」の第1章に最新情報を加えて一部修正し、転載したものです。ご了承ください。