エンコーダソリューションの最近のブログ記事

 

DVDを創ろうと考える諸兄へ

これからはHDTVよりネットワーク配信のビデオが重用になる。

そう独断で前置きをしながら話をしたいと思う。

なぜなら、今の日本でコストが増えるHDTVがもたらすビジネスメリットを制作の立場で見つけ難いと思っているからだ。映像屋の商品はコンテンツと、制作技術である。ご賛同頂けると思うが、現実の制作見積りに並ぶのは機材のレンタルや、頭数の拘束時間を日当で計算する人材派遣に似た項目である。違った商品形態を考えなくてはならない。

権利問題を考えていく中で、まずは映像を商品としたときの納品形態の変化に注目していただきたいのである。そして、その制作課程で権利の所在を模索する試みも行なっていただきたいのである。

従来の完パケ納品のVTR原版を野菜に例えるなら、農家が出荷する野菜そのものであろう。

食品は加工することで納品形態を変えて、新しい商品へと変貌して行く。

野菜炒めになった時に、利益率も素材とは違う次元へ変化していく。

映像も期待される利用シーンの変化に先んじて、加工技術を取り入れ、新しい納品形態に映像ビジネスを成り立たせていきたいものだ。

そのきっかけとなりそうなのがDVDであり、ネットワーク配信のストリームビデオなのだ。

 

今月はDVD制作を考える上で避けて通れない、ビデオをMPEG2へエンコードする作業を考えて見たい。

ビデオ制作の現場から考えるとVTRという機械は、ブラックボックスとして程よい映像の入れ物だったと言えよう。従来、記録方式を変えることは、すなわちデッキを交換することだった。実際の記録方式がベータカムであろうとDVCAMであろうと、出力コネクターから出てくるビデオ信号だけ意識していれば編集は良かったものだ。しかし、DVDの場合は記録方式に目を向けないと、品質をコントロールすることができない。

 

瑞々しいビデオ品質を守る圧縮の「いろは」

ビデオの編集室で見るマスターテープは美しい物だ。それが配布用のVHSなどにダビングされてくると、がっかりするほど品質が落ちてしまう。そんな経験をお持ちの方が多いだろう。この品質を上げることはアナログコピーであるかぎり至難の業だ。

ところが、デジタルメディアであるDVDは、極端な話、マスターそのままのデーターを入れる事も出来るのである。

注意していただきたいのは、現時点では入れる事は出来ても再生不可能なシロモノに成ってしまう。だが、再生能力さえ追いついてくれば原版データと寸部違わぬ 物が作ることが可能になっているということだ。

ここで、DVDというディスクメディアの機械的な再生能力という制約を知っておく必要が出てくる。現在のDVD規約では映像のビットレートの最大は9.8Mbpsに制限されているのだ。1秒間に9.8Mビットの転送に映像を押さえ込むには高度な圧縮技術が必用になる。

この工程をエンコードと呼び、実行する物をエンコーダと言っている。

ビットレートを限界まで高くすれば品質は向上するが、当然、収録できる時間は減ってしまう。必用な時間を収録しつつ、最良の品質のパラメータやビットレートを探ることがノウハウになってきているのだ。

エンコーダいろいろ

一口でエンコーダと言っても、昨今売り出されている数10万円のそれから、メーカーの威信をかけた数億円のシステムまでピンキリの激しい世界で、「いったい何が違うんだ!」と迷われている諸兄も多いことだろう。実は、そのピンで作られたデータも、キリで作られたデータも同じ環境で再生できるのだ。それは、MPEG2が再生のみを保証する規格だからだ。MPEG2のファイルを作るだけなら安価に出来る。

再生こそ同一に出来るファイル構造になっているが、そのファイルの作り方のプロセスにルールはない。安価なエンコーダと高価なエンコーダの違いは、プロセスのアルゴリズムの違いなのだ。

さて、いったいプロセス処理が違うと、どのような差になってくるのだろう。高性能エンコーダとは、なにをしてくれるのだろう。

今回試用させていただいたのは三菱電機のEN-250と、カスタムテクノロジー社のシネマクラフトシリーズだ。

EN-250はDVD制作に「シナリスト」と併用で多く用いられるエンコーダボードであるが、ビデオサーバー用などの汎用エンコーダとしても定評がある。

シネマクラフトシリーズは最高機種のハードエンコーダの他に、高性能のリアルタイム・ソフトエンコーダをラインアップしている。

耐える圧縮と破綻する処理の違い

ビデオ素材の中で、エンコードしやすい素材と、しにくい素材があることを確認しておこう。特に弱い素材をあげてみよう。

 

  • 1:画面が微妙に変化し続ける映像(水面や手持ちカメラの素材など)
  • 2:輝度差のある映像(テロップやハイライトのエッジや炎など)
  • 3:赤の再現性(人の肌色、原色の水着など)
  • 4:直線の処理(建築物などの人工的な輪郭やテロップ文字、ワイプなど)
  • 5:白の階調と、黒の階調処理(フェードインなどや、空の抜けと影の陰影など)

これらの素材は注意して確認しないとノイズ発生がしやすいものだ。

そこで、わざと高圧縮(2Mbps)にして強引にノイズを発生させてみた。

A:スモーキーノイズ

これは移動していく女性の髪の毛を取り込んで拡大した物だ。

煙がかかったように質感が失われている。動きの激しいシーンには顕著に表れる。

B:ブロックノイズ

輝度差の激しい場所付近にモザイク状の四角いブロックが並んで、質感が失われている。

合わせて色ムラやノイズの発生も見られる。水着の女性などは、特に多くの情報量 を必要とするようだ。

他の部分はきれいに再生しているのに、画面の中の部分的にノイズが発生するのはどうしてだろう。

それはMPEG2の圧縮原理に関係がある。

 

簡単にMPEG2の圧縮をおさらいしてみよう。

MPEG2の始めのカットは必ず「Iフレーム」(画面全部の情報を持ったインデックス・フレーム)から始まる。次のフレームになったら前のIフレームに対して変化した部分の情報だけを記録するのだ。

計算の単位は画面を4×4の16分割したブロックから始まる。

そのブロック単位で前のビデオフレームといっしょの映像が映るようなら情報は記録せずに同じである旨記録される。絵に変化があった場合、さらに細かくそのブロックの中を4×4の16分割して変化を探る。そこで変化のあったブロックはさらに分割して検証を繰り返して行く。情報量 (ビットレート)の上限を決めなければ、情報分配は、破たんをすることなく、美しい画面 情報を毎秒30フレームのビデオ画像すべてに割り当ててしまうが、膨大な情報量 を時間単位で規制することで、どこの情報を間引いていくかの判断が必要になってくるのだ。

言い変えると、次の時間までにどのような動きがあり、どの程度、情報量を消費するかの推測による判断処理が失敗したところから破たんをしていくわけだ。

この場合、破たんした小さなブロックセルから順次大きなセルまで同じような描画情報が与えられてしまうので、質感の無い平坦なブロックが出現することになる。

この予測処理をする仕組みをMPEG2圧縮アルゴリズムと呼び、各メーカーの特徴となってくるのだ。

技術的な難しさは予測する条件が多くなるほど激増する。

時間単位で均一な情報を分配するCBR(コンスタントビットレート)では、画面 の中で決まった情報量を割り当てれば良いから処理は簡単になる。しかし、静止画に近い画像にはもったいないほどの情報量 を与えることになり、逆に動きの激しいシーンには割り当てる情報量が足りずに無残な圧縮破たんを招く事になる。

そこで流動的にビットレートを配分し、動きの激しいシーンに多くの情報を与えて、静止画のようなシーンには節約した情報量 を与えることで、結果的に平均値が予定した情報量になるように加減するのがVBR(バリアブルビットレート)だ。この能力にエンコーダの価格差が象徴される。

予測計算が出来なかったブロックの記録は、いい加減な近似値に塗られる事になる。

さらにその周辺ブロックも同様の結果になることで、大きな面積のノイズ発生と認識されてしまう。

そうは言っても先読みすることは難しいので、あらかじめ何度もビデオを再生して各フレームに必要な情報量 の分配を記録して計算するのがマルチパスVBRだ。高価なエンコーダにはもれなくこの機能がある。VBRは、最小、最大、平均のビットレートを指定し、最低2パスの作業が必要だ。1パス目は映像の複雑さを調べるためにCBRまたは1パスVBRを実行し、この作業で得られた複雑さをフレーム毎に記述したファイルを作成する。2パス目以降は、その情報を元にして個々のフレームに配分するビット量 を計画し、それに従って実際のエンコードを行なうのだ。パスを重ねる毎に画質を改善できるため、ハリウッドの映画では平均的に20回から60回のパスをエンコードで行なうとの話もある。高圧縮と高画質を両立させるため、エンコードは膨大な時間を費やす作業なのだ。

最近の技術は、できるだけ1パスでベストな数値を予測することに向いている。わずかなバッファーに貯めた時間の中で将来を予測する技術がエンコーダの性能といっても過言ではない。

作業時間が数倍も違うと時間単価が気になる業界だけに、今後は1パスVBRを目指していくに違いない。(しかし安価な製品の予測のへたな1パスVBRなどはCBRと同じだ)

それにしても今回お借りした300~600万円クラスのエンコーダは安心して高品質の映像を作りだしてくれた。

ここでカスタムテクノロジー社シネマクラフトエンコーダの作業画面を見ながら、エンコード作業を紹介しよう。

同社のエンコーダはIntel PentiumIIIプロセッサで導入されたStreaming SIMD Extensions命令に最適化した処理を行い、高画質で驚異的な圧縮スピードを実現している。

最上位機種は専用筐体にフレームキャプチャーカードと、デコーダカードを組み合わせて提供される「Pro」¥4,200,000である。

EN-250同様にVTRからSDI入力を得てリアルタイムに処理を行うオンラインエンコーダだ。エンコード作業の状態がリアルタイムにプレビューできる高級機で、圧縮の画面 を見ながら作業を進められることは、高品質な映像を目指す場合に心強い。

特徴は独自のアルゴリズムによる「動き検出」で、動画を複数枚同時に何回もスキャンして「誤り動きベクトル」を訂正しながら動作する。

一般的なエンコーダの実装においては2フレーム以上離れているフレームの動き検出で、テレスコピックサーチ(過去の動きから未来の動きを予測し、その部分の周辺だけを動き検索する手法)が用いられるが、急激な輝度変化や、複雑な動きをする映像では予測が外れることが多い。これに対して「動き検出アルゴリズム」では、全ての隣り合うフレームの動きを調べてから、追いかけるように2フレーム以上の動き検出を行うので良好な結果 が得られる。

また、シーンチェンジにおいては、自動的にIフレームが設定され、このフレームから始まるGOPは自動的にClosed GOP(GOP内のフレームが他のGOPに属するフレームを参照しない構成)に設定される。ランダムアクセスを求めるオーサリングを予定している場合は、全てのGOPをクローズドにするオプションも用意されている。

設定できるパラメータも、およそMPEG2の圧縮において出来ないことの無いほどの徹底した職人向けのデスクトップが用意されている。

画面の中のセル単位で圧縮具合を制御できる機能は、高度な圧縮にもかかわらず高画質を要求する作業で必要になるだろう。また、任意にIフレームを挿入できる機能はDVDのチャプターを意識して決めたい場合に大変有効な機能だ。

デフォルトの状態でも効果的な圧縮を行ないながら、高品質な映像を維持できるのがこのクラスの強みでもある。さらに、映像によった設定を吟味できるところが大きな違いだ。安価なシステムは、ノイズが発生した場合にビットレイトを上げる以外に成す術が無い。

ソフトエンコーダの実力

次に紹介するのはソフトウェアエンコーダでありながら高機能なリアルタイム処理を可能にしたカスタムテクノロジー社シネマクラフトエンコーダ「SP」•398,000と、簡易なエンコードを目的とした「Lite」•24,800がある。AVIファイルやQuickTimeなどの動画ファイルをMPEG2ストリームへ変換してくれる。ノンリニアビデオ編集システムにインストールすることで、すぐにエンコードを行なうことが出来、DVDへの最短距離をとれるのだ。

変換スピードはCPUの能力に比例するが、PentiumIII 500 Dual以上で、ほぼリアルタイムのエンコードスピードを実現している。アルゴリズムは上位 機種と同じなので、設定個所が少なくなった分、かえって簡単に扱うことが出来るので、むしろ実用的ですらある。

簡単なオーサリングキット

MPEG2を制作する方法を体験する手っ取り早い方法は、ノンリニア編集システムとセットになったDVDオーサリングソフトのキットを利用してみる事だろう。

Canopus DVRex+MVR2000+ReelDVD

純国産の組み合わせの強みは安心感として表現される。DVDオーサリングソフトはダイキン社の「シナリスト」の廉価版だ。

Matrox RT2000+DVDit

DVおよびMPEG2での編集作業を可能にしたパッケージ。DVDオーサリングソフトはソニックソリューションズ社のDVDitで、複雑に考えがちなオーサリングを簡単な操作性で解決している。

PINNACLE DV500+Impression

ネイティブDVの編集と、タイムラインベースでオーサリングできるミネルバ社のソフトがシームレスにつながる絶妙の組み合わせだ。

このクラスのオーサリングソフトで、凝った作業はできないが、映像のメニュー分岐程度の構成は簡単に行なうことが出来る。オーサリングソフトのメーカである3社は、それぞれに上位 の高級機種を備えているので、将来を考えて研究費として複数機種を同時に使い比べてみることをお勧めする。

こんな使い方も!

MPEG2を再生し視聴するための準備は、意外と簡単だ。

オーソドックスなデコーダカードを利用し、外部のテレビへビデオ出力するタイプと、ソフトだけでエンコードを行い、パソコン画面 へ表示してくれるものまで様々ある。

ソフトデコーダは7800円台に価格もそろってきている。

また、商品を買わなくてもパソコンに詳しい方ならレジストリを細工するだけで標準のWindows Media PlayerにMPEG2を、だまして再生させることすら可能なのだ。

ファイルサーバーに置いたMPEG2ファイル

エンコードされたMPEG2はコンピュータで視聴するのに向いている。

オフィスで必要な社員教育教材や、ノートパソコンで画面いっぱいの迫力ある動画はビジネスプレゼンテーションの大きなパワーになるだろう。

このためのMPEG2データーを保管するのに最適な場所はファイルサーバーだ。

専用のビデオサーバーでなくてもファイル共有されたMPEG2は面白いようにネットワークを超え、大画面 で再生してくれる。

多人数での同時アクセスには向かないが、通常の社内教育の教材を考えた場合などは、特にビデオサーバーまでの設備は必要無いことが多い。

お試しあれ。

CD-ROMに入れたDVDイメージ

サーバーに置くことが出来るMPEG2のファイルや、DVDのディスクイメージは、当然コンピュータで扱えるメディアなら何でも(転送スピードさえ満たせば)利用可能だ。

高価なDVD-Rを導入できない時点では、手軽なCD-RにDVDのディスクイメージを保存することで、コンピュータなら映像を再生することができる。

容量はかなり小さく(650MB)なるが、短時間の映像なら十分に利用可能だ。

この場合、通常のDVDプレーヤーでは作動しない。

便利なソフトデコーダ

既存のコンピュータ環境だけでは改造無しにMPEG2を再生する事は出来ない。

そこで登場するのがソフトデコーダーと呼ばれるDVDプレーヤーソフトである。

サイバーリンク社 PowerDVD

ラビセントテック社 Cinemaster

バロビジョン社 VaroDVD

MGI社 SoftDVD

他多数

多くのパッケージが市販されているが、NT上で作動する製品は少ないので吟味が必要だ。

価格はほとんどの製品が¥7800と安価で市販されている。

また、プレゼンテーションやCD-ROMなどの制作で活躍しているMM・DirectorでMPEG2をキックし、オーバーレイ表示や、外部出力するためのエクストラや、ソフト開発用キットも登場しているので、CD-ROM制作のノウハウも活かした活用方法も大きく広がっている。この場合はクライアント側にとくべつな準備は要らない。

映像は加工料理の時代へ

MPEG2を納品する形態は、ファイルサーバーや、ビデオサーバーなどのネットワーク送出の設備であったり、パッケージ形のCD-ROMやDVDなどのディスクであったりするが、

多くの場合は複数メディアにまたがって同一コンテンツを利用することが多くなるに違いない。

インターネットのWeb上からRealVideoやQuickTimeなどのストリームビデオをインデックス変わりに映像の分岐システムを利用する手法なども、同一コンテンツのバリエーションとして加工できるものだ。

品質が悪いと馬鹿にしている間に、既存の放送レベルは追い抜かれてしまう時代に入ったのだ。

なにせ、15Hz程度のインターレスNTSC映像に比べ、60~75Hzプログレッシブは当たり前のパソコンモニターを利用するのだから、圧縮、データ転送技術の進歩次第で逆転しないとは誰も言えないだろう。

そう言えばデジタルHDの最も安価なディスプレーは、NAB2000で発表される予定のデジタルHDチューナーボードを利用した、パソコンモニターになるそうだ。

納品形態の変化で飛躍する映像制作会社

従来の映像制作は番組納品のように、一度放送したら終わりの仕事といえよう。

作品のバージョンアップの概念は無い。

だが、時代は確実に映像の多用な利用方法を模索している。

プロモーション映像なら視聴者の反応をフィードバックできる仕組みが望まれている。

教材映像なら生徒の習得度や効果測定をフィードバックできる仕組みが望まれている。

販売促進映像なら直接購買に結びつく仕組みが望まれている。

映像の必要な部分だけのバージョンアップをすばやく行なえることも望まれている。

撮影技術では、複数のメディアに適した収録方法と、圧縮に対抗するカメラワークを研究する必要がある。

映像の演出にも双方向システム全体のデザインにかかわる覚悟が必要になってきている。

編集技術はデジタルデータのフォーマット変換の精通していくことが必要になってきている。

制作進行には、各種の業界を横断的に交流できるパフォーマンスが必要になっている。

さらに、プロデューサーにはネットワークでの映像利用をイメージでき、双方向メディアの世界観を語れるスケールが求められている。

飛び出してくる才能を既成概念で潰さないでほしい。必ずや登場するであろう映像の魔術師の活躍を期待してやまない。


取材協力:

カスタム・テクノロジー株式会社

ソニックソリューションズ株式会社

ダイキン工業株式会社

ピナクルシステムズ株式会社

日立計測器サービス株式会社

三菱電機株式会社

 

MPEG-4とenvivio
Envivioは、MPEG-4関連のソリューションを提供する老舗メーカーとして知られている。研究所レベルでは独自のMPEG-4エンコーダーを国内の多くのメーカーも、有しているが、販売しているのは数少ない。
MPEG-4を利用するために必要なものはエンコーダーだけではない。
レイヤー構造を持つMPEG-4の機能を実現するためのオーサリングツール、そして、配信を実現するサーバー。もちろんライブ中継のエンコーダーや、コンテンツの作りこみにソフトエンコーダーも用意されている。

現在、envivioのMPEG-4ソリューションラインナップは以下のようになる。

? ライブエンコーダー
? envivio Live Broadcaster (ELB)
? ソフトエンコーダー
? envivio Encoding Station (EES)
? オーサリング
? envivio Broadcast Studio (EBS)
? サーバー
? envivio Streaming Server (ESS)

この中で、EES(envivio Encoding Station)は、高品質なMPEG-4ソフトエンコーダーとしてポピュラーな存在だが、今回はH.264に対応したDEMO製品をイノマイクロ株式会社から特別に試用させていただいた。

H.264とは
ここで紹介するMPEG-4 Part10/H.264は、進化系として、従来のMPEG-4/H.263の、主に移動通信での利用を想定したものから30%以上の高品質化を実現、実際にネットワーク経由でDVD品質に迫る映像を提供する事を目的にしている。
今までのMPEG-4との互換性は無いので、パソコンで再生する場合、使用するenvivioTV(再生ソフト)もH.264対応を使用する必要がある。
高画質をうたい文句にしているH.264は、放送業界の注目も浴びている。ネットワークを介した映像ビジネスには中心的なフォーマットになるかもしれない。
H.264は新しいコーデックにつき物だが、やはり強力なCPUパワーを必要とする。
再生もさることながら、エンコードにおいても、品質重視のエンコードには強力なCPUと、実時間の何倍もの時間が必要だ。

操作画面
アプリケーションを起動すると、上部左に素材と、右にエンコード後の画面を同時に表示できる。
左下に素材となるファイルを選択し、出力先を指定するエリアがある。
取り込めるファイル形式はMPEG-1、 MPEG-2,MPEG-4、AVI,QuickTimeと幅広い。
下部中央にはエンコード設定値を記憶し整理できる。
試しに基準となるパラメータをセットしたものを選ぶが、追い込んでいったとき、経験値を蓄積できるので便利だ。
下部右で細かなパラメータを追い込むことが出来る。
エンコードの品質を最大限に上げたいとき必要となる部分で、はじめに従来のMPEG-4と、H.264を切り替えて選択することになる。
注意しておきたいのは、H.264は処理方式が変わるために旧来のMPEG-4と互換性は無いことだ。

さて、実際のエンコード作業を行ってみよう。
エンコードタイプでH.264を選択すると、その下の設定項目が表示される。
H.264のクォリティを最大限にあげたい時にデフォルトの推奨値があるので、初めてのユーザーでも迷う事は無い。
一般的に、平均にはこれくらいのパラメータはセットしておくと一番クォリティは良くなるだろうと設定しているメーカー奨励プリセットだ。
セットアップファイルの中でファーストというのは、エンコード時間が早くて、そこそこのデーターが得られる設定だ。
実際には、これらプリセットの値を決めているメーカー奨励のものだけでなく、ユーザーが設定したパラメータを記憶させることが重要だ。
中央下のにフロッピーマークとディレクトリがあるので、必要な作業分類に応じたセットアップファイルを自分で作って素材に応じた設定値を保存しておくことができる。

設定値の意味
EES(envivio Encoding Station)のH.264バージョンは、H.264/MPEG-4AVCと、他にはスタンダードMPEG-4ファイルが作成できる。
AVCとは、envivio独自のアドバンスドビデオコーデックのこと。
初期設定の組み合わせは、AVCのある無しと、MPEG-4か、H.264にするかどうかを選ぶだけだ。

MPEG-4 とH.264はエンコードのしかたが違う。
従来型との互換性がないため、どちらの形にするか選ぶ必要がある。
MPEG-4はエンビビオではシンプルプロファイルと、アドバンスドシンプルプロファイルの選択になる。
さらにH.264は、その先のいろいろな項目が変わってくる。
その項目が、それぞれのアルゴリズムに応じた設定が出来るわけだ。

さて、出来上がったファイルの品質は、どうだろうか。
同じソフトでMPEG-4と比較してH.264のファイルは明らかに綺麗な映像だ。
1Mの帯域でDVDと同等品質をめざすH.264だけに、一度使い始めると戻れない魅力を感じる。現在はソフトでコードのみの対応で、CPUパワーも相当に要求されるが、専用のデコーダーチップが近いうちに登場すればSTBなどのシステムに有効だ。
次世代のフォーマットとして注目されるH.264は、映像ビジネスのマスターメディアとなれるのか?今後の動向に目が離せない。

 


☆ リアルタイムエンコーダーの魅力

ストリーミングイベントや、ブロードバンド対応サイトが充実して、エンコードも多量かつ高品質のクリップを、迅速に要求される時代になってきた。
従来のソフトエンコードだけで仕事が回しきれなくなったり、画質に満足しなくなったら、専用エンコーダーの出番だ。
リアルタイムエンコーダーを使い始めたら、もう戻れない。

☆ 両製品の概略とターゲット用途について
ストリーミングデータを効率よく作り出すための道具として、リアルタイムでエンコードが行える「Digital Rapids社StreamZ*」と、「WinNov社XStreamEngine BroadCaster」は、「PINNACLE社のStreamFactry」で埋め尽くされていたリアルタイムエンコーダーの市場を、にわかに活性化してきた。両社の違いはエンコード作業の現場特性に合わせたチューニングが施されているところだ。
よく、ハードエンコーダーと誤解されるリアルタイムエンコーダーだが、正確にはエンコード作業はCPUで行うソフトエンコードである。
MPEG-1やMPEG-2のように専用エンコードチップを搭載したボードのような製品は、技術的な仕様が固定化しているからこそ可能だ。現在のストリーミングで多く利用されるRealVideoや、WindowsMediaは、数ヵ月毎に大きな進歩をとげ、バージョンアップが繰り返される。そこへ専用ハードを開発したら、多大な開発コストを回収する前に陳腐化してしまうだろう。
では、いったいリアルタイムエンコーダーは、なにが特化しているのだろうか。それは、エンコード作業へデータを渡すまでのプリプロセスと呼ばれる前処理を高度化しているのだ。
ストリーミングビデオで舞台となるパソコン画面ではプログレッシブで表示を行っている。また、NTSCを表示するテレビ画面はインターレスで表示している。走査方式の違いは、動きの激しい画像では顕著に現れる。
そのインターレス画面をプログレッシブ化する工程で、専用ハードの能力が大きく関わっているのだ。
また、フィルム素材のようなテレシネ作業で秒間24コマを30コマへ増やした素材などもエンコードには悪影響がある。これも綺麗に処理しておく必要がある。詳しくはエンコード作業の中で紹介していこう。
では、エンコード現場の特徴を考えてみよう。
ストリーミングデータの作り方では、大きく分けて、ライブ配信のために現場で行うエンコードと、オンデマンド配信のためにスタジオなどでファイルを作成する作業に分類される。
それぞれの作業で求められる特性を考えてみよう。

☆ WinNov社のXStreamEngine BroadCasterは、ライブ配信に特化している。
ライブ配信では、高品質な映像をつくれて当たり前の上に、安定性と、柔軟な操作性が求められる。現場では何が起こるか分からないからだ。
特に臨時回線で作業することの多いライブの現場では、エンコーダーとサーバーとの間で、何らかの回線不調があると簡単にプッシュ型のエンコーダーは止まってしまう。
多くの視聴者を期待するイベントでは、複数のサーバーへ同時に接続しているケースが多いので、止まったセッションを個別に対処したいものだ。
操作画面で状況を一望できるデザインは、WinNov社のXStreamEngine BroadCasterが見やすく考えられている。さらに、ビデオ入力信号を4枚のボードで、それぞれに受け持つため、トラブルが起きたときに接続を切り離して対処できるなど安心な面が多い。
エンコード後の画像確認や、レベルインジケータが見やすく表示されたり、動作中のパラメータ微調整などが可能であることも現場では重宝される。

☆ 一方、Digital Rapids社のStreamZ*は、ライブだけでなくオンデマンドファイルを作りこむのにも適している。
デッキコントロールは、同一クリップを何度も必要とする場合や、正確な再現性を要求される仕事にはうってつけだ。
StreamZ*の各パラメータはXML形式のファイルで管理されているため、拡張性が多彩に考えられる。SDK(開発キット)でも、自動化をしやすい配慮が感じられる。
CPUの能力が上がるとエンコード能力が上げられるので、陳腐化が防げる。
多彩なフォーマットへも対応する幅の広さも魅力のひとつだ。
☆ リアルタイムエンコーダーの実際
今回の検証ではWindowsMedia9のエンコードで設定作業を見てみよう。
基本的な手順は、ソース設定 、プロファイル設定 、エンコードとなる。
Windows Media 9 は、日本では2003年1月29日に正式なリリースが始まったばかりの最新コーデックだ。

☆ エンコードの準備
Windows Media9を使用してリアルタイムでエンコードする場合は、高速な CPU が必要だ。特に 640x480 サイズのコンテンツをエンコードするには、マイクロソフト社では、4CPU のシステムが推奨となっている。
ちなみに今回検証したシステムは、以下のとおりだ。
時期によって必ずしも同一のシステムとはならないので、あくまでも参考としていただきたい。

Digital Rapids社StreamZ*
OS Name Microsoft Windows XP Professional(Japan)
System Type X86-based PC
Processor x86 Family 15 Model 2 Stepping 4 GenuineIntel 2.80B Ghz
Processor x86 Family 15 Model 2 Stepping 4 GenuineIntel 2.80B Ghz
Total Memory 1GB(ECC)
HDD 18GB Ultra320(1500rpm) SCSIx2

WinNov社 XStreamEngine BroadCaster
OS Name Microsoft Windows 2000 Professional(English)
System Type X86-based PC
Processor x86 Family 15 Model 2 Stepping 4 GenuineIntel ~1983 Mhz
Processor x86 Family 15 Model 2 Stepping 4 GenuineIntel ~1983 Mhz
Total Memory 261,612 KB
HDD Ultra ATA 38GB

CPUには多少WinNovにハンディがあった。
ただし、リアルタイムに処理する作業は遜色のない状態だ。

☆ リアルタイムでエンコードする場合、CPU 使用率が 80 % を超えないようモニターする必要がある。

1本のストリームで最大の情報量を与えたエンコードは、WinNovでは3MBbps以上の設定はできないようになっている。StreamZ*では5Mbpsまで走らせることができた。
また、同時に処理できるエンコード本数は、WinNovでは4本の設定が可能だ。StreamZ*ではCPUの許す限り何本でも実行することができる。
同時に扱える入力ソースは、WinNovでは4入力を同時にCPUの許す限り処理できる。StreamZ*では2入力の選択とメディアファイルからのトランスコードをCPUの許す限り複数行うことができる。

☆ どの場合でもCPUの負荷率は80%を超えないように注意しないと、コマ落ち、音のひずみなどの原因になるため、神経を使う。
さらに、オーディオレベルも確認する。録音レベルが適切でないと、ノイズが発生したり、最適な品質が得られなかったりするからだ。
事前にテスト的にエンコードして、クライアントでの再生具合をチェックし、ソースのエンコード音量を調整しておくことが肝要だ。映像の調整に関しては、ノイズカットのセッティングやカラーコレクターの値などは一度設定したら通常はいちいちリアルタイムに調整する必要がないのであまり問題ないが、音の場合は、変化に合わせてリアルタイムにある程度調整をおこなうファクターが多いので、この点は今後どのような形でLIVEでのオペレートを行うのか検討する必要がある。

☆ 音声のエフェクトといっても、リアルタイム性が必要なものと、そうでもないものに分かれるが、やはり音量のレベルはダイナミクスコントロールを行う必要性が高い。
エンコーダー搭載の機能としてダイナミクスコントロール用のエフェクトにも重点がおかれるが、自然界におけるダイナミックレンジの広さを考えれば、何らかの形でこのダイナミクスを制御しないことには、音声を有効に記録することは出来ない。ミキサーを用いたレベルコントロールの他に、従来からの手法で、リミッターやコンプレッサー、最近ではマルチバンドコンプレッサーやピークリミッター等にパラメトリック・イコライザーなどを組み合わせて用いることで、より自然に聞こえるような形でダイナミクスのコントロール方法が発達してきた。

☆ 近年、発達してきたエフェクターに複合的なダイナミックプロセッサーがある。コンプレッサー・リミッター・レベラー等バランス良くプログラムしたエフェクターで、録音の手前の最終段や、送出の手前の最終段にインサートすることで、効果的にダイナミクスをコントロールできるエフェクターだ。主にマスタリングに使うので、マスタリングプロセッサー等と呼ばれているようなダイナミクスコントローラーが有効なのだ。ダイナミクスコントローラーをエンコーダーの手前にインサートして、過大入力やレベルの低下を防ぎ、より良い状態のエンコードデータが生成されるようにする必要があるのだ。
またエンコーダー自体の処理の負荷を分散させるような構成での機器のセッティングが今後の負荷の多いブロードバンドLIVEエンコードを考える上で重要な要素になっていくのだ。
ライブエンコードの場合そのソースが声であろうと音楽であろうと、マイクロフォンからの信号のエンコードが主な用途になってくるが、人間の声は録音や伝送するのにもっとも困難な題材の一つだ。レベルを一定に保ち、なおかつ明瞭な音声を提供するのはとてもテクニックのいる作業だ。声のレベルの変化に応じて、一定のレベルを保つように自動的にエフェクトして出力してくれるダイナミクスコントローラーが有効なのだ。
この調整は、codec の選択よりも重要で、品質向上に効果的だ。

☆ キャプチャ済みのメディアファイルを変換する場合には、リアルタイムではないため、CPU スピードに合わせてエンコーディングプロセスが進むので、特別に高速な CPU は必要ない。エンコードにかかる時間が長くなるだけだ。
同じ素材を何度も利用する場合や、高品質エンコードを行う場合には、非圧縮AVIなどのファイルでプリプロセスをしっかり掛けて、後にエンコードプロジェクトを複数同時に行うこともコマ落ちを防ぐ安心なやり方だ。
また、事前に AVI ファイルにキャプチャしておくと、エンコーダがリアルタイムでエンコードする必要が無いので本来の画質を保つことができる。AVIファイルは編集が容易になり、複数の同一コンテンツの制作も容易だ。
また、高品質なAVI にキャプチャする場合はバススピードに負荷がかかるので、高速な Disk アクセスが必要になる。ハードディスクはデフラグを行い、このボリュームをネットワーク接続やファイル共有しないようにしておくことも重要だ。手作りでエンコーダーを用意する場合などは、キャプチャカードと SCSI カードの DMI バッファでの衝突には十分注意することが必要になる。Dual PCI Busシステムを利用するようにマザーボードの選択も慎重にしておこう。 このあたりはノンリニア編集システムに通じるところが多い。

☆ リアルタイムではないが、StreamZ*ではWindows Media、2pass encoding や VBR (可変ビットレート) の設定が簡単にGUIで行えるのもありがたい。
2 パスエンコーディングでは、ビデオのエンコードプロセスを2回実施し、1 回目では場面の性質によって、ビットレート、フレームレート、バッファサイズの最適な組み合わせを探し、2 回目で実際のエンコードをする。このため通常の 2 倍の時間がかかるが、品質の向上に役立つ。
VBR (可変ビットレート) エンコードは、画質に合わせて使用するビットレートを変動させることができ、ファイル総量を節約し、結果的に高画質となる。しかし、帯域が可変するような特性のため、ストリーミングサービスには向かないので、ローカル再生を目的としたディスクコンテンツの制作時に利用することが有効だ。

☆ 高ビットレートなコンテンツを制作する場合配慮しなければならないポイントは、再生クライアントの負荷だ。 320 x 240 のコンテンツを表示させるには 300 MHz 以上の CPU、640x480 や、320 x 240x 60 fps では 700 MHz 以上の CPU を搭載したクライアントが必要になる。 1 Mbps を超える高ビットレートコンテンツの場合には、敢えて最新でない CODEC-WindowsMedia 7 CODEC を使用することで、多少クライアントの再生負荷を軽減することもできる。(画質は損する)

☆ エンコード素材
プリプロセスが重要な理由と同様に、エンコードでの圧縮を有効に機能させるためには素材も、放送品質のものを用意する必要がある。DV-Cam、DVC-Pro、BetaCamSP または Digital Betacam などの放送品質のテープ形式を使用することがジッターを防ぎ、無駄な圧縮ノイズを発生させることなくエンコードが可能になる。miniDV や、S-Videoのような、より低級なコンシューマ形式を使用しなければならない場合は、TimeBase Corrector (TBC)を備えた業務用再生デッキを使用しよう。ノイズと映像のぶれ(ジッター)を抑えることが、低データ レートに負けない品質の圧縮ビデオを制作する鍵となる。
今回の検証はSDI (CCIR-601) - デジタル信号のまますべての作業を行った。

☆ キャプチャ方式の指定
キャプチャカードの設定で、ピクセルフォーマットを確認する。
RGB は、ファイルは大きくなり、バスの負荷もあがる。 YUV は、多くのバリエーションがあり、YUY2 は最高品質を実現する。リアルタイムエンコードの時は、デフォルトにするか、YUV ベースのフォーマットにする。

☆ ソース設定
より高品質なエンコードをするには、まずソースのタイプに応じたキャプチャ手順を考慮する必要がある。ソースファイルの形式によって、最適なフレームレート、画面サイズ、処理手順が変わってくるからだ。
NTSC の場合は、ソースが 30 fps でかつ インターレース化されている。そこで、まずプログレッシブ化 ( ノンインターレース化 ) をし、30 fps か 60 fps で出力する。帯域幅に制限がある場合は、30 の半分の 15fps にする。重要なのはプリプロセッサーの機能と、ソフトエンコーダーの機能をダブルで使用しないように注意することだ。きちんとプリプロセス出来ている素材なら、まったくフィルターの必要なくエンコードを行える。
ノンインターレース化とは、NTSC 向けにインターレース化されたコンテンツをプログレッシブ化する処理だ。
インターレース化されたコンテンツは、奇数フィールドのみのフレームと偶数フィールドのみのフレームのセットを表示し、2 フレームで1セットの画像を完成させるようになっている。
これにより、ちらつきが解消し、早い移動物などの表示が有利になる。また圧縮にも有利だ。

☆ Film コンテンツの場合は、ソースは 24 fps から 30 fps に変更されており(テレシネ)、また画面サイズは PC ディスプレイと同一ではない。逆テレシネ 処理をし、上下の黒い部分を省くようクロップ設定する。そのままにしておくと、上下の黒い部分も帯域幅を消費するからだ。
こちらのフレームレートは、24 を基数として計算する。
PAL の場合は ソースと同じ 25 fps にする。この時フレームレートは、25 を基数として計算しよう。この場合もプリプロセッサーの機能と、ソフトエンコーダーの機能をダブルで使用しないように注意することだ。
ビデオのトリミング 映画コンテンツの場合には、画面サイズを調整する必要がある。
ここで、上下の切り詰めるべき空間を設定するが、その際、必ず8 ピクセルの倍数となるように設定する。また、通常の4:3素材の場合でも、上下左右の端にノイズがのっている場合があるので、その場合も必要量をトリミングする。
また、60 フィールドのデータをリサンプリング化することで、 60 fps のコンテンツに変換することもできる。60 fps にする場合、300 Kbps 以上の帯域幅が必要だ。
テレシネとは、映画用フィルムコンテンツを TV (NTSC) 向けにコンバートする処理のことだ。
24 fps を 30 fps に変更し、インターレース化している。
ということは、元がフィルムのコンテンツは、みな 30 fps に増幅され、インターレス処理されているということだ。

☆ そこで、逆テレシネ (Inverse Telecine) という機能を利用する。
このプロセスでは、テレシネ処理で水増しされたデータを除去し、ノンインターレース化する。
これにより、より圧縮に適した形になり、インターレースの問題も除去される。ただし、テレシネ処理後に編集されていると、正しく逆テレシネできないことがある。またこの処理をおこなうと、CPU使用率が10 - 25 % 上がる。この処理をハードウェアでおこなう今回のシステムは、CPUの負荷は軽減され、高品質だが、システム価格はそれなりになる。これをソフトウェアだけで処理すると、安価なシステムを実現できるが、時間と品質が損なわれる。

☆ プロファイル設定
プロファイルは自由なカスタマイズが可能だ。プロファイルは、拡張子.PRX のXMLファイルに保存することもできる。
WinNovでは専用のGUIから簡単な数値入力で設定を行う。

☆ マルチビットレートでは、10 までの複数の帯域を選択しての指定にすることができる。
これを Windows Media Server から配信することで インテリジェントストリーミングが可能だが、 CPU 負荷 及び ファイルの容量は大きくなる。
「指定帯域幅より実際の帯域幅の方が大きい」といった場合には、間違えてマルチビットレートの指定をしている場合があるので確認しておこう。また、配信対象 新規作成時の最大ビットレートの値は、実帯域幅ではない。たとえば 500Kbps の指定をした場合、実ビットレートは 509Kbps になる。メディアビットレートを 500 Kbps に設定したことになるので、実ビットレートである効果的なビットレートは 509 Kbpsになる。実ビットレートを 500 Kbps にしたい場合は、効果的なビットレートが 500 Kbps になるよう、メディアビットレートを微調整する。(この場合 491 Kbps)
ここで、上記トリミング で画面サイズを変更している場合は、変更後の画面サイズを指定する。

☆ バッファ量を大きくすることで、コンテンツの変化に対応が可能だ。
たとえば高画質なコンテンツを提供する場合は、バッファ量を大きくしておくことで、再生開始までの待ち時間が長くなるが、その分高品質な画像を提供することができる。
デフォルトではこの値は 3 秒になっているが、ストリーミングの場合では 20秒まで、ダウンロードの場合は 90 秒まで増やすことができる。
なお、バッファ量を大きく設定すると、クライアントでのメモリ使用量も大きくなる。

☆ WindowsMedia9で紹介された「Fast Streaming」は、Windows2003.netサーバーからの機能となっている。Windows2003で実装される新しいWindowsMediaServerは、多くの改善が見られた。
これは、従来のストリーミング配信で付きものだった再生が開始されるまでのバッファ時間をなくして、瞬間的に再生を開始するものだ。
テレビチャンネルを切り替える感覚でコンテンツのザッピングすることも夢ではない。
また、回線帯域に余裕があれば、再生時間軸に関係なく早めにデータをプレーヤーにキャッシュさせることで、ネットワークトラブルによる再生中断を最小化できる。
実際にネットワークケーブルを途中で抜いても、再生を継続するし、また接続すれば再生にブランク無く継続することができた。
次に、サーバーサイドでのプレイリスト編成による広告の挿入も行うことが可能になった。従来複雑だったユーザーごとに広告を変えた配信を実行するなどのカスタマイズも可能になった。
動的にプレイリストを編集しながら配信を止める事なく運用できる。
従来のサーバーの配信能力を2倍に向上させただけでなく、コンテンツ配信ネットワーク(CDN)への対応も可能になった。
SDKの開放によってキャッシュサーバーやプロキシーサーバーとしても構築が可能。
充実した管理ツールと、プラグインによる拡張でプラットフォームで稼動するストレージ、課金、ロギングのシステムとシームレスに統合できる。

☆ キーフレームの間隔 の設定では、Encoder はその間隔中にかならず1つキーフレームを挿入する。
ただ、キーフレームが途中で必要になった場合にも自動的に挿入されるので、間隔が大きくて問題となるようなことはない。
この間隔を小さくすると、早送り、巻き戻しがきれいになるが、当然より多くの帯域が必要となる。

☆ 画像の品質とは、最低限の画質を示している。
たとえば、30 fps で 品質 0 の設定をした場合、とにかく 1/30 秒 で1フレーム表示、画質は二の次、という動作をする。
品質の設定をあげていくにしたがって、設定された品質を満たさない限り次のフレームを表示しない、という動作になる。
そこで、帯域幅が限られている中で、品質をあげればあげるほど、要求されたフレームレートに対応できないという結果となり、フレームのコマ落ちが発生する。ただし、画像の品質は高くなる。
この設定は、「コマ落ちが発生しない上限まであげる」ことが最適と考えられている。
また画質に合わせてフレームレートを調整する場合もあるので、動きが少ない場合はフレームレートより品質を優先して 80-100 の設定、動きが激しい場合はフレームレートを優先して 50-70 の設定、といった使い分けをする必要がある。

☆ エンコード
すべての設定が完了したところで、エンコードを開始する。
StreamZ*では、入力・出力画面を、WinNovでは出力画面をリアルタイムで表示できるので、出力品質をその場で確認できる。また、エンコードプロセスをモニター可能だ。
ただし、この表示により余計なCPU負荷があるので、高品質なエンコードをする場合は、ビデオ画面のリアルタイム表示を無効にする必要がある。


☆ 実際の操作StreamZ*
起動したら、基本設定として入力信号をNTSCで、セットアップなしを忘れずに確認しておこう。
起動したときのプロジェクト環境の中へ使用するプロファイルを作成、または選択する。


Xmlファイルで定義されるプロファイルでは、利用するコーデックを選択し、圧縮を定義する。基本的にはOSで利用できるコーデックは殆ど利用可能だ。
アーカイブなどに便利なMPEG-2での高品質保存から、高圧縮で有利なDivixや、変わったところではDPSファイルなど多彩なプロファイルをセットできる。また、1280x720のサイズでも加工ができる。データ上で加工したHD素材を用いれば、そのまま高品質なコンテンツ加工も可能だ。
現在Windows Media 9対応、Real Media (Helix応済み)、Quick Time 6、MPEG-1、MPEG-2、MPEG-4(Divix)、AVI、DPSファイルなどに出力対応だ。
同一プロジェクトにはプロファイルをいくつでも設定できる。
もちろんリアルタイムで処理できる組み合わせは、CPU使用率との相談だ。

 

ソースの選択
プロジェクト単位では一つのソースを決めることになる。Inputタブで映像の入力設定をする。ここでの映像ファイル設定も保存可能である。
入力を選ぶと映像表示部分にソース映像と音を出すことが出来る様になる。
このタブで重要なのはデ・インターレースにチェックを入れる事だ。
「StreamZ*」の動き補償型デ・インタレースはハードウェア処理のためCPUに負荷が掛からない。
入力はアナログモデルとデジタルモデルからの選択になる。


アナログモデル:
コンポジット×2
S-Video×2
バランスオーディオ×2(XLRキャノン)
アンバランスオーディオ×2(RCAコネクター)
デジタルモデル:
上記アナログモデル入力系統に追加して 
シリアルデジタルD1(SDI)×2
DV(IEEE1394)×1
AES/EBU×2
SDIからのAudioではAES/EBU以外にエンベッドも扱うことが出来る。


ライブ入力以外に、OSでサポートできる「DirectShow」経由でも、多彩な変換が行える。デッキコントロールでは、業務用のRS422コントロールのVTRを制御してフレーム単位の使用ポイントを設定できる。
複数のポイントからファイルを作り出すのにも便利だ。
設定データはxmlファイルになるので、マネージメントも外部で行うことが可能だ。
ただしエンコードの精度はOS任せになるので、余裕を持った設定にしないと、頭が切れたり、絵がこぼれたりするケースがあるかもしれない。
正確を期すなら、ファイルとして完全なものを用意すればよい。
他の制御としてGPIが付いているので、GPIトリガーを受けられる機器の制御が可能だ。

 

☆ プリプロセス
この段階で「StreamZ*」の最大の特徴であるプリプロセスをかけることが出来る。
VideoプロセスとAudioプロセスタブがあり、両方ともリアルタイムに反映する。
クロッピングは任意の数値を打ち込むことが出来る。
もちろんエンコード中に数値を変更することも可能である。
また右クリックで数値を基本値に戻せるのも便利である。

オーディオのプリプロセス設定
音の品質は、出来る事なら信号段階で整理しておきたいものだが、エンコーダーの中でも、ここまで整えられるという機能だ。
パラメトリック・イコライザーと、ダイナミックレンジのコンプレッサーとエキスパンダーが用意されている。効果を確認するためにはダイレクトに再生しても意味が無いので、ネットワーク経由でプレーヤーからさ再生させた品質を評価しよう。


Audioプロセス:
  7バンド・パラメトリック・イコライザ(EQ)


  ダイナイックレンジコンプレッションコントロール
  ボリューム調整
高音/低音調整
20bit内部処理

☆ ビデオのプリプロセス設定
強力なプリプロセス機能を設定する画面がここになる。
ノイズリダクションは、不思議なほどすっきりとした綺麗な画像を作り出してくれる。
決定的な「デ・インターレース」処理は、StreamZ*ならではの出来で、他の方法では真似できないものだ。
デモ画面の中から特徴的なシーンを紹介しよう。


車輪が画面の中で横切っていくシーンだ。
インターレースを、そのまま取り込んだものは、ギザギザの櫛形ノイズと、車輪の輪郭が複数にブレて表示されている。


標準ソフトでのインターレース除去では、櫛形ノイズを消すことは出来ても輪郭がダブる表示は消すことが出来ない。


StreamZ*のインターレース除去は、綺麗に車輪の輪郭補正もリアルタイムに行っている。これは、動きの激しい画像を上質にエンコードする際には大変に重要なポイントだ。


Videoプロセス:
  クロッピング
  プロックアンプ/ブライトネス、コントラスト、サチュレーション、ヒュー、カラーゲイン、カラーバランス補正
テンポラル(3次元)ノイズリダクション
スペーシャル(2次元)ノイズリダクション
アスペクト比変換
変更した数値はリアルタイムで反映される。

出力設定
アーカイブとしてのファイル出力と、サーバーとの接続を設定する。
ライブ中継で流しっぱなしで終わりではなく、アーカイブ事により中継後も、素材の2次利用が出来る。
便利な機能としてファイル名を自動的に当てはめ、ユニークな名称を生成し、上書きの危険を回避してくれるファイル名のジェネレーター機能がある。設定はプロファイル毎に保存することが出来る。
多くのプロファイル設定や、まとめたプロジェクトを保存しておくことで、同様の作業を再度行う場合に大変重宝する。

複数の作業を行う場合の組み合わせ方
同一プロジェクト内の複数プロファイルは、エンコードの開始、停止をワンアクションで行うことが出来る。分けて実行したい場合は、プロジェクトを変えても同時に実行することが出来る。例えば、ライブ収録で、ネットワークへ配信する作業を行いながら、個別のシーンをアーカイブするなどの作業が同時に進行できるのだ。

エマジェンシー
緊急時の再起動時などで、指定のプロジェクトを強制的に開始する機能も新たに追加された。
遠隔で操作する場合など安心な機能だ。


☆ 実際の操作 WinNov XStreamEngine BroadCaster
ライブ専用として特化したインターフェースと、入力ソース毎にPCIカードでキャプチャーを行う安定志向が売りのエンコーダーだ。
ファイルからのトランスコードは別アプリケーションが必要。
起動するとブラウザーにJAVAベースのインターフェースで独特の画面が表示される。当然ネットワークからWebブラウザーを介して遠隔制御が可能だ。IDとパスワードを入力すれば離れていても、直接タッチするのとまったく変わらない作業ができる。

アナログモデル:
コンポジット×4(YUVと切り替え)
YUVコンポーネント(S-Video)×2
バランスオーディオ×2(XLRキャノンLR)
バランスオーディオ×2(TRS標準コネクターLR)
バランスオーディオ×2(TRS標準コネクターLR)スルーアウト
デジタルオプション:
上記アナログモデル入力系統に追加してビデオのみ。 
シリアルデジタルD1(SDI)×1
シリアルデジタルD1(SDI)×1 スルーアウト
オーディオのデジタル対応はない。


入力信号
NTSC、PAL

映像フォーマット
YV12、YUY2、YV12

対応フォーマット
WindowsMedia7(9に対応)
RealProduser8.5Plus

標準セットアップ
28.8k 160x120 15fps
50k 176x144 15fps
10k 240x180 30fps
300k 320x240 30fps

WindowsMedia
50k 176x144 15fps
250k 320x240 30fps

RealNetwork
50k 176x144 15fps
250k 320x240 30fps

マスターコントロール
同時に運用できる4本のストリームを一元管理する画面だ。
それぞれのストリームを開始、一時停止、停止することを基本に、オーディオレベル、フレームレート、ビットレート、動作時間、接続ユーザー数、そして重要なCPU使用率などが一目で確認できる。
従来型のプル方WindwsMediaサーバーでは重要なポート確認も簡単に行える。それぞれのストリームの画像確認も出来るが、CPUの余裕がない場合は消しておく必要があるだろう。

コンフィグレーション
ストリームごと個別の設定を行えるコンフィグレーション画面では、さらに詳細な設定を行える。
この画面からもストリームを開始、一時停止、停止することができる。
オーディオとビデオのソース決定は別の画面で行う。オーディオについては右側のブロックから、ビデオは左側のブロックからソースをセレクトできる。同一のデバイスに接続した複数のソースは、ライブエンコード中に切り替えることが出来る。

メタ設定
ストリーミング中には変更しない情報を裏の画面で行うようにデザインされている。
左側のブロックでは、使用するポートナンバーや、アーカイブ先の指定などは「STREAM SINK」タブの中で行う。


表示関係で使用する名称などの設定は「META INFO」で行う。
右側のブロックでは、ストリーミングからリンクするURLの設定や、キャプションを「SCRIPT」タブからコマンドを仕込むことが出来る。


ビデオセットアップではエンコードストリームの設定が「VIDEO」タブで行える。


ビットレートでの組み合わせは最大総量5Mbpsを超えないように組み合わせながら行うことが出来る。
ただし、「Deinterlasce」を設定しているとCPU使用率は大幅に上がるため注意が必要だ。

設定例 #1:1ストリーム出力- 3Mbps 640x480 30 fps
設定例 #2:2ストリーム出力- 1.5Mbps 640x480 15 fps
設定例 #3:4ストリーム出力- 1Mbps 320x240 30 fps

見やすく管理しやすいインターフェースは、ライブでの運用に実績があることを納得できる。

☆ 総括
今後エンコード作業は、幅広く新しいコーデックに柔軟に対応、ブロードバンドという広帯域に対応したクオリティの高い動画、インターネットという速い流れに乗り遅れないための大量、迅速な作業、プロ用映像機器との親和性これらすべてが必要になるであろう。
エンコーダー、サーバー、プレーヤー、そして、それぞれの開発キットと、著作権管理機能(DRM)を加えて、デジタルメディアの世界でブレイクスルーを迎えようとしている。
近づいてきたホームシアターでのハイビジョン時代。
地上波デジタル放送への移行を目の前にして、コンテンツビジネスのあり方が問われている。
高画質、高品質音響の伝達手段として、侮れなくなってきたのがネットワークを利用した配信だろう。もともとデジタルデータを扱うことは、コンピュータの得意な分野だ。
インターネットを見ても、情報の発信が距離を意識しなくなり、規模よりも内容と、サービスが重要なことは明白だ。
高画質のHD映像と、包み込むようなサラウンドオーディオを配信するのは放送だけだろうか?

 

DVカメラに装着できるエンコーダーがある。ネットワークパックKA-DV300は、DVカメラGY-DV300の底にフィットする設計で、DV記録と同時にWindowsMediaでも記録、配信が可能になっている。内部にはLinux搭載のワンボードコンピュータがコンパクトに収まっているのだ。


PCカードスロットにワイヤレスLANのカードを装着すれば、カメラがネットワークに接続可能になるので、遠隔からの操作や、カメラ画像の確認が行える。


ネットワークパックには「Streamproducer」というソフトがカメラ4台の映像を切り替えながら、同時に10セッションの接続ができるサーバー機能を持っている。


組み合わせは多彩だが、ネットワークに接続するための多少知識が必要になる。
その気になれば地球の裏側からでもカメラを操作できるのだ。世界中に配置したカメラの映像を独り占めするのも夢ではない。


今回の環境を説明しよう。
せっかく切り替えができるので、2台のカメラGY-DV300に、ネットワークパックKA-DV300を装着し、ワイヤレスLANカードをセットする。


ワイヤレスLANのアクセスポイントからLANにゲート接続し、有線でStreamproducerをインストールしたパソコンと接続する。このパソコンをサーバーとして、複数のパソコンから接続して映像を楽しんでみる。
設定の方法を見てみよう。
はじめにカメラへセットされたネットワークパックへIPアドレスをセットする。
カメラのMENUボタンを押してメニュー画面が写ったら、SELECTダイヤルを回し、NETWORK PACK CONFIG項目にカーソルを合わせ、SELECTダイヤルを押す。
この要領でIPアドレス、マスク、ゲートウェイを設定する。次に接続を許可するユーザーIDと、パスワードを設定しておく。エンコードなどの設定はネットワーク経由でパソコンから行ったほうが簡単だ。


2台のカメラで異なるアドレスをセットしたら、Streamproducerから、それぞれ呼び出してみよう。先に設定したIPアドレスに対してIDとパスワードを送ると簡単に接続する。


カメラに対してはWebブラウザーからも設定の変更を行うことができる。
Streamproducerから設定ボタンを押すことでも呼び出せるし、Webブラウザー単独でも、カメラにセットしたIPアドレスで、IDとパスワードを要求され、送ると簡単に接続する。
Webブラウザーからの設定を見てみよう。
カメラ設定では、オート、マニュアルの切り替え、カラーバー出力、ホワイトバランス、アイリス、ゲイン、シャッター、ズームなどのコントロールが可能だ。


エンコーダーとしては、エンコードサイズ、ビデオ転送レート、オーディオ転送レート、フレームレートなどを数段階切り替えられる。だが、この選択肢も少なすぎるように感じる。


限られたスペースのエンコーダーで、必然的にパワーも制限されているためかLANで期待するほどの画面が得られない可能性がある。さらに、日進月歩のストリーム環境で、バージョンアップは期待できるのだろうか。本来はDVネイティブの信号をダイレクトに転送する機能までバリエーションの中にあってよいプロダクトに感じる。
ストリームデータとして記録すると同時にテープもスタートするシンクロ機能もあり、バックアップも安心だ。ストリームデータは、カメラ内蔵のメモリーのほか、Streamproducer側のパソコンでも保存が可能だ。
Web画面からもカメラの画像をプレビューできるが、このときはStreamproducerをクローズしておかないと二重接続になるため接続できない。これは不親切だ。


せっかくStreamproducerにサーバー機能があるのだから、起動している場合は参照先を選べるようにするべきだ。


そのほか、VTR部分の操作もWeb画面から可能だが、タイムコードでのキューアップはできない。また、カメラ側のスイッチでCAMとVTRを切り替えておかないと利用できない。それぞれが、まったく違った用途を想定して付けた機能のようで、一貫した操作ストーリーのデザインを感じられない。せっかく遠隔で記録した映像も、確認するためにはカメラ側で操作する人が必要になる。これでは遠隔操作で無人化できない。
高所に取り付けたり、ラジコン操作の飛行船に乗せたり、さまざまなシーンで利用できる機能だが、操作できる範囲が限定されすぎている。思い切って、カメラスイッチ以上の操作をネットワークでは出来るようにしてほしかった。(操作画面も自由に大きく出来るのだから)


さて、Streamproducerではカメラ入力の他にファイルを再生してストリームすることもできる。
単純な操作でストリームを送信できるので、本格的なWindowsMediaサーバーからプルしてビデオジョッキー的に利用するのも面白い。
一見4ソースのスイッチャーの機能を期待するが、ソースを切り替える場合は、一度ストリーム本線から画像が無くなり、再度バッファーをしてからのスタートとなるため、切り替えといった演出はあきらめたほうが良い。ここは「.netServer」が登場したら、その機能を利用して、ぜひ解決してほしいところだ。
映し出される映像は、プレビューとしては十分に役目を果たすものだ。
リモコンのカメラとして期待すると、タイムラグが大きいのでその分を見越した利用が必要だ。
遠隔での監視用途などでは、さらに外部センサーなどのI/Oがほしいところだ。

原稿を入稿間際に飛び込んできた情報で、KA-DV5000という業務用カメラに装着するネットワークパックが発表された。このエンコーダーには更なる改良が行われている。
直接httpでWindowsMediaPlayerから再生可能。
ビデオエンコードレートが最大512kbpsに引き上げ。
画像サイズにSIF(360×240)とQSIF(160×120)を追加
+5Vネットワークカード対応
MPEG4コーデック搭載
Streamproducer配信への低遅延化(18sec⇒2sec)
キャプチャーシーン、シーンファイル機能の搭載
など大きく進歩している。

今回の試用では辛口のコメントが多くなってしまったが、それだけ期待が大きかったことからの落差と考えていただきたい。アイディアはユニークだが、受け入れる作業現場のりサーチを開発者はもっと行ってほしいのだ。機器のご協力をいただいた日本ビクター株式会社様には今後ますますのご発展を期待しています。

マイクロソフト社からWindowsMedia Encoder V9(開発コードCORONA)が登場した。ハイビジョン、そして5-1サラウンドまで対応する高品質なエンコードを可能にしている。いよいよ映像制作のプロの方々が活躍する時代が来ているのだ。


ちなみに、マイクロソフト社では、すでに各地の映画祭でWMV Cinemaを上映。
特に「Wendigo」は、映画館3館でWMV上映された世界最初の映画となった。
また、BMW社との共同で全米25館の映画館で8本のショートフィルムをHD(WMV)で上映している。この映画館のWindows Media Video(WMV)再生設備はそのまま常設され、今後のWMV Digital Cinemaに利用されるとのことだ。
http://www.bmwfilm.com
よく、ビデオ制作のプロの方から、ネットワークによるビデオ配信は、品質の面で否定的なご意見を良く聞かれたが、ブロードバンド時代を迎えた日本の都市部は、世界でも類を見ない高品質なラストワンマイルを有するインフラが用意されている。従来の低画質エンコードでは必要なかったビデオ素材の扱いが、今後、おもちゃではなく本格的な映像機器を要求されるようになってきているのだ。
早速、WindowsMedia Encoder V9を起動してみよう。


分かりやすく親切なウィザードから、素材のトランスコードや、テープデバイスからのキャプチャー、ライブのブロードキャストなど作業を選択できる。


次に取り付けているキャプチャーデバイスを選択する。当然HDなら、それを可能にする周辺環境が必要だ。加えて強力なCPUと、HDなどのハイエンドキャプチャーボードを装備すれば、マルチパスのエンコードを行うことができる。
現在、サンプル映像などの製作工程では、AccomなどのHDディスクレコーダーに1080・24Pで取り込むことで、コマ落ちなどの品質劣化を防いでいる。収録されたデジタル素材をAvid DS/HDノンリニア環境で編集、WindowsMedia Encoder V9へデータで渡す。
また、オーディオはProToolsなどから24bit/96khz 6WAV PCM非圧縮ファイルで取り込み、同じくWindowsMedia Encoder V9へデータで渡す。
残念ながら今回筆者はSDで画面だけ試してみたい。
ウィザードを進めると、従来のWindowsMediaサービスでは、PULL型での対応しかサポートされていなかったが、次世代の.NetServerへの布石が明確なPush型のエンコード・ブロードキャスト(ライブ配信)が用意されている。

さらにウィザードを進めると、配信ポートの設定を行える。
注目したいのはエンコードオプションでVideoに「HD quality」が出現し、Audioには「multi-channel surround sound」が出現するところだ。


レートを確認すると、5393kbpsと確認できる。
この品質のリアルタイムエンコードは、残念ながら筆者のプアなマシン環境(PIII/1G-Dual)では実行できない。
WindowsMedia Encoder V9のメイン画面に到着すると、「Properties」設定のボタンと、「Start Encoding」ボタンがわかりやすく並んでいる。


「Properties」では、ソースの選択から出力、圧縮、サイズ、メタ表記などタブが並んでいる。
インターレス処理されているSD素材なら「Deinterlace」は欠かせない。コンピュータ画面はプログレッシブなのだ。また、映画のテレシネ素材なら24コマから30コマへ調整した余分なコマが圧縮の邪魔になるので「Inverse telecine」も重要な選択だ。


WindowsMedia Encoder V9で追加された重要な方式で、プラグインによる機能追加が上げられる。標準で利用できるフィルターもご覧のとおり、さまざまなケースに柔軟な対応が可能になっている。

また、サードパーティーが自社機材に合わせたさまざまな特徴をエンコード作業に持ち込めるので、余計なプログラムを開発する手間が省け、品質向上に追い風となる。
残念ながら筆者のプアなマシン環境(PIII/1G-Dual)ではこれも選択すると実行できない。(エラー表示)


推奨は(P4xeon/2.4G-Dual)から上の世界で可能な力技なのだ。
「Start Encoding」ボタンを押すと、エンコードが開始される。


シンプルなエンコードを確実にこなしてくれるWindowsMedia Encoder V9は、ポストプロダクションに携わる人、必見のソフトと思う。新しいビジネスチャンスが、この分野には待ち構えているかもしれない。
ハイエンド・エンコードへ興味のある方は、下記までご連絡をお待ちしています。


ストリーミング・プリプロセッサ/エンコーダ


今年はインターネットメディア配信が大きく変わる年だろう。
RealNetworks社のReal9、Microsoft社のWindowsMedia9、AppleComputer社のQuickTime6など主要メーカーがデジタルメディアフォーマットそしてサーバーを大きくバージョンアップさせた。
その中でも業界をリードしてきたRealNetworks社は7月Helixという新しいブランドを打ち立てた。
今回は早くもHelixに対応したDigital Rapids Corporationのリアルタイムハードウェアエンコーダー「StreamZ*」を試してみた。
このエンコーダの特徴は、今まで多くはソフト処理であった映像のプリプロセスを強力にハードウェア処理するところであり、リアルタイムに高画質なデジタルメディアを作成できる。
■ 基本操作
「StreamZ*」を起動すると,大変シンプルなウィンドウが開く。
基本GUIは大きく分けて映像表示、設定、映像設定の3つで構成されている。
操作も基本的な設定であれば3ステップでエンコード、ブロードキャストが可能である。

1、 出力の設定ファイルを作成する。
2、 映像ソースの設定ファイルを作成する。
3、 映像、音のプリプロセスの設定をする。
そして、スタートボタンを押すだけである。

デュアル・エンコード対応モデルであれば、2つの異なった映像ソースを同時にエンコードが可能であり、設定ももう一つウィンドウを立ち上げるだけで後の操作はまったく同じだ。


【BasicGUI.bmp】

基本GUI。直感的に操作できる。
■ 出力ファイルの設定
初めに出力ファイルの設定を作成する。
現在Windows Media(先日WindowsMedia9対応表明)、Real Media (Helix応済み)、※Quick Time、MPEG-1、MPEG-2、※MPEG-4、AVI、DPSファイルなどに出力対応だ。
※印については-有償オプションになる可能性があります。
初めにも述べたがHelixエンコーダの設定も早々と対応している。
【Helix_encoding.bmp】出力ファイルの設定画面。Real9に対応しているのが分かる。
DPSファイルへの出力だが、弊社でdpsVelocity*-Jv7.6上で再生出来た。
今後入力が可能になり、dps社の独自形式であるVTFSのPドライブを共有できるということになると、dpsRealityHD*からのHD素材のエンコードも可能になりReal9,WindowsMedia9で両社共が大きくうたっている新機能、HDクオリティのデータが作成可能になるであろう。
将来に期待したい。


【DPS-VTFS-save.bmp】

VideoとAudioが別なDPSファイルで出力できる。
出力設定ファイルは保存が可能なのでライブ中継や普段決まった数値でエンコードする場合などは予め作成しておける。
同ソースから複数同時エンコードの場合は、出力ファイルをプロファイルウィンドウから呼び出すだけである。
■ 入力設定ファイルの作成
Inputタブで映像の入力設定をする。ここでの映像ファイル設定も保存可能である。
入力を選ぶと映像表示部分にソース映像と音を出すことが出来る様になる。
このタブで重要なのはデインターレースにチェックを入れる事だ。
「StreamZ*」の動き補償型デ・インタレースはハードウェア処理のためCPUに負荷が掛からない。
入力はアナログモデルとデジタルモデルからの選択になる。

アナログモデル:
コンポジット×2
S-Video×2
YUVコンポーネント×2
バランスオーディオ×2(XLRキャノン)
アンバランスオーディオ×2(RCAコネクター)
デジタルモデル:
上記アナログモデル入力系統に追加して 
シリアルデジタルD1(SDI)×2
DV(IEEE1394)×1
AES/EBU×2

■プリプロセス
この段階で「StreamZ*」の最大の特徴であるプリプロセスをかけることが出来る。
VideoプロセスとAudioプロセスタブがあり、両方ともリアルタイムに反映する。
クロッピングは任意の数値を打ち込むことが出来る。
もちろんエンコード中に数値を変更することも可能である。
また右クリックで数値を基本値に戻せるのも便利である。
Videoプロセス:
  クロッピング
  プロックアンプ/ブライトネス、コントラスト、サチュレーション、ヒュー、
         カラーゲイン、カラーバランス補正
テンポラル(3次元)ノイズリダクション
スペーシャル(2次元)ノイズリダクション
アスペクト比変換
【DPS-VTFS-video.bmp】変更した数値はリアルタイムで反映される。
Audioプロセス:
  7バンド・パラメトリック・イコライザ(EQ)
  ダイナイックレンジコンプレッションコントロール
  ボリューム調整
高音/低音調整
20bit内部処理

【DPS-VTFS-Audio.bmp】

 

■ 出力設定
最後に出力先の設定をする。
アーカイブとブロードキャストが同時に可能である。
ライブ中継で流しっぱなしで終わりではなく、アーカイブ事により中継後も、素材の2次利用が出来る。
また、アーカイブのファイル名には関数を使用する事により日付、ビットレートやプロファイル名を自動的にファイル名として付ける事が出来る、タグ機能も有る。
制御としてRS-422VTRデッキコントロール(予定)、あるいはGPIが付いているので、GPIトリガーを受けられる機器の制御が可能だ。


【GPI.bmp】


【422control.bmp】

デッキコントロールが付くと自動処理により人が張り付かなくてすむ。
ここまで設定すればもうエンコード開始だ。
エンコード中はStatisticsタブでエンコードの状況を確認できる。

今後エンコード作業は、幅広く新しいコーデックに柔軟に対応、ブロードバンドという広帯域に対応したクオリティの高い動画、インターネットという速い流れに乗り遅れないための大量、迅速な作業、プロ用映像機器との親和性これらすべてが必要になるであろう。
以上のものを兼ね備えており、さらに今後の予定として遠隔制御機能やオーサリング機能(未定)等を表明している「StreamZ*」の今後が楽しみである。

 

【商品名】StreamZ* (「ストリームゼット」)
【開発元】Digital Rapids Corporation

■Digital Rapids社「StreamZ」
今回紹介するエンコーダー「StreamZ」は、高画質を追求するための、エンコード前のプリ・プロセスを最大の目標にした製品だ。
開発元であるDigital Rapids社は、カナダのオンタリオ州に本社を置く、ベンチャー企業だ。技術スタッフは15年間にわたり放送機器関連の設計デザインの経験を持つプロフェッショナルビデオのスペシャリストだ。
1Uの筺体に収められたパッケージは、専用チップによるハードウェア・プリ・プロセスをリアルタイムに処理する事が可能だ。

■プリ・プロセスとは
NTSC映像の特徴であるインターレース処理を、コンピュータで綺麗に見せるための処理として、動き補償型インターレース除去機能(デ・インターデース)、
3次元ノイズリダクション、インバース・テレシネ、ガンマ補正、などが強力に行える。オーディオの部分はダイナミック・レンジ・コンプレッション、7バンド・パラメトリック・イコライザ等が20bit内部処理で行われる。

動き補償型インターレース除去機能(デ・インターデース)、は、他社にない先進の機能で、エンコードする素材がNTSCの場合、それをそのままキャプチャーすると、フィールドのぎざぎざ感が出てしまう。
Windows Media 付属のエンコーダーや、RealNetworksのエンコーダーソフトにも必ずデ・インターレースという項目はあるが、特に動きの激しい場合に追従しきれなくなり、輪郭がダブル現象が起こる。
StreamZでは、この空間補正を専用チップで強力に行うことができる。

3次元ノイズリダクションでは、ガラスの水槽の中の魚などの映像で、使用すると、水中の透明感や、魚の色艶が映えてくる。
ハードウェア処理になるので、エンコード処理中でも、すべてリアルタイムに反映され、質感の具合を確認できる。

■対応ファイルフォーマット
現在はWindowsMedia 8とReal8、MPEG-1、2(PS)、QuickTime、QuickTime Sorensonに対応しているが、今後はMPEG-4(ISO)、CORONA、Real9に対応予定である。
入力信号だけでなく、一度取り込んだファイルのトランスコードも可能なので、素材の品質管理に大きな可能性を広げるものだ。

■入力フォーマット
入力信号はコンポジット、Y/C、コンポーネント、SDIが各2系統と、DVが1系統も可能になる最上位デジタルモデルと、各1系統入力のアナログモデルまで製品のバリエーションがある。
入力のプロファイルを作成後、エンコーダーの画面でソースの確認が行える。
同時にプリ・プロセスとしてブライトネス、サチュレーション、ヒュー、カラーゲイン、カラーバランスなどが調整出来、リアルタイムに確認もできる。

■エンコード
プリ・プロセスをハードウェアが行っているので、CPUに負荷がかからない上、さらに専用のカスタムチップを2枚搭載してるので、2系統の異なる映像を同時に、それぞれのパラメータで調整したものをエンコードすることができる。

■テスト事例
8月4日、横浜市青葉区の緑山スタジオシティ(TBS緑山スタジオ)で日本オフロードショートトラック連盟(JOSF)主催のJapan Open Nightレースが開催された。
その現場で実際に、1ストリームをレースごとのVODに、もう1ストリームをライブで試合中流しつづけるという、同時作成テストを行った。


実際に運用された株式会社東通の技術開発事業部デジタルコンテンツ開発部の岩田氏から、
「いままで比較したエンコーダの中ではDRCが一番きれいであったし、プリ・プロセスに重点を置いた設計で、将来性を感じる」
とのコメントをいただいた。
当日は気温も高く、中継車の外部テントの環境も苛酷であったが、問題なく作動していたこともお伝えしておきたい。
今後、エンコーダーは中継車の常設機器となる先駆けとして活躍に期待したい。

本格的MPEG-4コンテンツ制作環境の紹介ができるようになった。
MPEG-4では映像の配信だけでなく、ユーザーサイドの選択を考慮したコンテンツ作りが行えるシステムとなる。
コンテンツ内容の効果測定や、関連情報のリンクなど、従来では不可能だった動的映像コンテンツの作りこみが可能だ。
もちろん、今まで再生環境に合わせてさまざまにSMILなどで作りこんでいたインタラクティブなコンテンツも、MPEGF-4なら、プレイヤーやOSに関係なく、ストリームベースで再生可能になるのだ。

現時点で手に入り、稼動する最初のMPEG-4トータルオーサリング環境はEnvivio社だけである。
「エンビビオ」の会社概要は、母体が「フランステレコム」のR&D、特にMPEG-4に関わる開発をしてた部隊がフランステレコムの出資を受けてスピンアウトし、独立したエンビビオという会社になった。会社はサンフランシスコにある。
エンビビオの優位性は、実際にMPEG-4で商品がきちんと、パッケージというかたちでもう提供できているところだ。エンビビオは価格も決まって、商品も出荷できているのが、まず1つめのポイントだ。
2つめは当然エンビビオのコアコンピタンスとして、MPEG-4の部分でのインタラクティブ性を使ったコンテンツを作成できるオーサリングのツールだ。ちなみに、この部分では彼らのパテントの技術をふんだんに取り込んで商品化している。

ブロードバンドビジネスに向けて、エンビビオがプライオリティーを高く展開を図っているのが、視聴する側のクライアントソフトへの対策だ。
現状はすべてソフトウェアのプラグインで提供され、リアルネットワークスのリアルプレイヤーと、クイックタイムのプレイヤー、これに関しては、もうサポートできている。あわせて、近々、Windows Media Playerへのサポートも同様に完了する。
そこで、いわゆるインターネットストリーミングの3大プレイヤーに関しては全てサポートできるので、裾野はかなりカバーできる。
クオリティーは、大画面で鑑賞したり、もしくはブロードバンドで様々な公共機関などに設置したりというかたちで、MPEG-4が使われてくるので、この場合には当然、「専用の箱」、セットトップボックス(STB)で受けたいというニーズもある。ハードウェアのシグマデザイン社製MPEG-4デコーダーチップを搭載し、すでにSTB製品もできている。

さらに、リアルタイムのライブ・エンコーダー製品としてもリリースしている。
従来ではMPEG-2を使って、ネットワークに負荷をかけ、コストが非常にかかる映像配信したり、衛星を使ってMPEG-2で配信していたが、MPEG-4で帯域を劇的に落とすことができる。今まで衛星で6Mとか4Mの帯域を使用して1チャンネル映像をサービスしていたところに対して、MPEG-4の1Mbpsぐらいのレートでは、同じ帯域幅で、4チャンネル映像を流せる。そういう部分でのメリットは大きい。
また、MPEG-4では、著作権の保護への対応もエンビビオではすでに実績もあり、対応できるメリットもある。
MPEG-4の規格を策定する「ISMA」でもエンビビオは中心的なメンバーとして活動している。特にMPEG-4のチェックをするためのコンテンツで、エンビビオのエンコーダーで作ったコンテンツを使って、他のメーカーのデコーダーをチェックしている位だそうだ。
ISMAスタンダードイコールエンビビオのように言われている状況こそ、MPEG-4のマーケットにおけるエンビビオのポジションを端的にあらわしているだろう。

さて、MPEG-4コンテンツ制作で重要なのはインタラクティブ性の持ったコンテンツを作れる部分だ。
ラインナップを見てみよう。

■「ブロードキャスト・スタジオ」は、オーサリングのツールだ。
ビデオ以外にさまざまな静止画像、テキストとか、アクションをつけたフラッシュ・コンテンツを利用し、インターラクティブMPEG-4が作成できるソフトウェアだ。GUIのわかりやすい環境で、コマンドコードの入力もほとんどなく、だれにでも操作できるだろう。

■「ライブ・エンコーダー」では、カメラや、VTRといったビデオソースを、キャプチャーボード経由で取り込んで、リアルタイムにMPEG-4のファイルとして格納することもできるし、ネットワークに対してマルチキャスト、ユニキャストで配信することもできるソフトウェアだ。
実際、2Mbpsのクオリティーで、フルD1の解像度までサポートできるので、DVDのクオリティー程度であれば、もうリアルタイムでMPEG-4に変換して配信までできる。

■「エンコーディング・ステーション」は、オフラインのエンコーダーで、ライブと違って、AVIの形式とか、MPEG-1もしくはMPEG-2とかのファイル形式で、ソフト的に取り込み変換できるというオフラインのトランスコーダーになる。
トランスコーダーはCPUのパワーに依存する。もとの素材にもよるが、リアルタイム以上のスピードで、トランスコードできる。もしくはクオリティー重視の場合にはダブルパスというような設定もできて、エンコードを2回かけてMPEG-4のファイルを作成するというようなところもできるソフトウェアになる。

■「ストリーミング・サーバー」は、配信用のサーバーのソフトウェアだ。MPEG-4のファイルを格納して、クライアントからの要求に応じて、同時に500ストリームまで配信できるというサーバーソフトウェアだ。
現状、対応OSは、WindowsとリナックスのOSをサポートしている。
ユニークなところでは、リアルネットワークスのリアルサーバーへ、プラグインという製品を用意しているので、ストリーミングサーバーの既存の環境だと、リアル・サーバーを使ったインフラが半数以上のシェアを占めているので、その環境と混在させてそのまま使えるようになる。

結局、MPEG-1~2と、MPEG-4は全然違うものだ。
MPEG-1~2は、コーデックそのものが、いかに効率高く映像をデジタライズして圧縮するという演算式で、いわゆるDCTといわれている演算式にMPEG-1、MPEG-2の価値があり圧縮をかけている。圧縮したコンテンツは確かにDVDで利用できたりするが、結局映像そのものが主体であって、それ以外の何者でもない。
MPEG-4は違う。映像を高効率で圧縮をかけるという非常に優れた技術的な面が強調されているが、重要なのはインタラクティビティーだ。時間軸と空間軸をMPEG-4の規格の中で管理できるという部分、これが非常に重要で、何ができるか、どう使うかによってビジネスモデルが出来上がってくるはずだ。
例えば、それが映像のコンテンツがあって、まわりにオブジェクトが貼り付けられ、そのオブジェクトに興味を持つとURLのリンクに飛んで行って、そのCDを買うとか、DVDを買うとかECのビジネスモデルにもなるし、e-ラーニングでも、映像にパワーポイントなどのオブジェクトを貼り付けて、それが時間軸で切り替わっていけば、学校の授業のライブラリーになり、セミナーだったらセミナーのライブラリーをSMILより簡単に作っていけることになる。
SMILも同様のことができるが、やはり技術的な弱点がまだまだある。SMILは圧縮方式ではないから、オブジェクトをどうやってリンクさせるかというスクリプトだけの世界になる。つまりオブジェクトの関連付けはできても、圧縮はしてくれないので、複雑なオブジェクトを貼りつけたSMILをストリーミングするのは、極めて難しいことになる。

純粋なMPEG-4トータルソリューションでとして、エンビビオは、蓄積映像(アーカイブ)や放送メディアだけでなく、インターネットや移動体通信でのマルチメディアコンテンツの伝送、あるいはインタラクティブ通信への利用に最適な広い互換性のあるフォーマットの制作環境を提供してくれた。

 
高品質の動画伝送が可能なブロードバンドネットワークにふさわしい、高品質なエンコードについて考えてみよう。

ポイントは品質と、自動処理化だ。

 

従来の侠帯域のナローバンドネットワークでは、小さい貧弱な映像しか送れなかったために、品質を考える以前の状態であったが、最近ではHDIPネットワークで流すなど、高帯域伝送の勢いが盛んだ。

広帯域で多くの情報が送れるようになると品質への要求も当然やかましくなってくるものだ。

 

ここで、パソコン画面で見る高品質ビデオを考えてみるために、逆のケースから考えてみたいと思う。つまり、パソコン画面で作成された画像をNTSCビデオに変換する際の信号帯域の違いを思い出してほしい。パソコンの白(RGB256,256,256)信号はそのままではテレビジョンの規格である100%の白信号を大きくオーバーしてしまう。パソコンの黒(RGB0,0,0)信号ではIRE0%の黒よりも沈んでしまう。これをダウンコンバーターなどで上下の帯域を圧縮することで、基準信号内で最良の色再現を行っている。

 

よくコンピュータグラフィックの画面をDVDのメニュー画面などで利用するとき、気をつけないと信号をはみ出した素材を作ってしまう。このような信号の守備範囲の違いを意識して、ビデオ信号をパソコンの画面で眺めてみると、どうも全体的に暗い印象の画面が多くなってしまう。つまり、より再現能力のあるはずのコンピュータ画面での再現にフィットしていないのが実情だ。多くのエンコーダーはカラーコレクションを含むプリプロセスの機能が貧弱なのだ。
また、テレビ画面にはアンダースキャン、オーバースキャンといった見切れの状態を示す言葉があるが、コンピュータへ取り込んだ画面は映像信号の全体が丸見えになっている。
場合によってはVITCのシグナルや、編集時のDVE処理の淵がバレていたり、不都合なケースが多くある。

これらの問題を高品質に解決するハイエンドエンコーダー2機種を紹介しよう。

 

初めに「Anystream」によるエンコードを試してみる。

ハイエンドシステムとしてICEボードを利用したプリプロセスが売り物だが、基本的にはソフトでの処理を前提としたシステムだ。

エンコードはサーバーの機能として行うので、クライアントソフトを利用したネットワーク上からの作業となる。もちろんサーバー上でもクライアントを動かすことはできる。

ビデオ入力はSDIによる高品質なデジタル処理をリアルタイムで可能にしている。

デッキコントロールもバッチ機能を備えて、正確なクリップ制作に対応している。

多くの処理を「ジョブ」として複数登録していくことで自動的に実行できる配慮がされている。

 

最大の特徴はOMFフォーマットに対応している点だろう。これはAvidの提唱するデジタルビデオの共通フォーマットで、ネットワークにつながったノンリニアシステムや、UnityなどのSAN(ストレージエリアネットワーク)システムのデータを利用してエンコードを行うことができるのだ。
対応入力ファイルフォーマットは、
AvidOMF/Media100/DV/AVI/Mpeg-1/Mpeg-2/QuickTimeが上げられている。
大きな特徴がプリプロセス機能だ。
プレビュー画面の中でプロセスのかかり具合を分割して比較検討できるので、良好な画質を選ぶのに大変やりやすい。プリプロセッシングの種類は、ノイズリダクション、カラーコレクション、スムージング等の他にクロッピング、ダウンサイジングといった機能とデインターレース、インバーステレシネやオーディオフィルター、著作を主張するウォーターマークの挿入も含まれる。
エンコーダーで対応する出力ファイルフォーマットは、

RealVideo/WindowsMedia/QuickTime/WAV/Mpeg-4/Mpeg-4(PacketVideo)/MP3/AvidOMF/Media100/Mpeg-2/Mpeg-1/DV/AVI/AIFFの出力が可能だ。

オプションでDVDで利用するMpeg-2のファイルへもエンコードが可能だ。
特に目立つのはPacktVideoだ。PacktVideoは次世代携帯電話であるNTTドコモの動画配信サービス「FOMA」で採用され実装試験をはじめているところだ。
これらのデータは必要な配信サーバーへ転送することまで自動化することができる。
すべてを設定した「ジョブ」をどんどん登録していくとサーバーが同時進行で複数処理を行っていく。

多くの素材を毎日エンコードする作業なら自動化することで、その効率を上げていこうとするのが「Anystream」のアプローチだ。

 

次にハードウェアを主体としたGVG社の「Aqua」だ。

放送機器では実績のあるGrass Valley Groupが広帯域配信の品質を極める目的でデビューさせる「Aqua」は、安定した動作を目指して徹底したハードウェアへのインプリメントでNAB2001で登場した。
ケースボディへ電源ユニット、Ethernetユニット、そしてCaptureユニットとEncoderユニットとの組み合わせで構成される。

最小構成では1枚のCaptureユニットと3枚のEncoderユニットから、最大構成では2枚のCaptureユニットと10枚のEncoderユニットまで組み合わせが可能だ。エンコードは完全に分離したハードシステムなので、パラレルで動作して高密度処理が可能になる。

操作自体はWebブラウザーからコントロールできるので設置場所を問わない。
取材時現在では日本に実機が存在しないので、詳しくはデモができるようになったらレポートをお届けしよう。

エンコーダーも放送規格の耐久性、安定性を要求される時代に入って、システムとしての位置付けをますます強くしていくだろう。

 

オンデマンドのエンコードはインデックス機能を持ったメタデータとの組み合わせを考えていくことが必須だからだ。

品質の上がったエンコーダーで映像を楽しめる時代がすぐそこまできている。

 

今回は、番組コンテンツを深く視聴者に浸透させる道具として、インターネットを利用する「しかけ」を想定して見たい。

どのような切り口で、番組をインターネットでのストリーミング映像で露出する事が有効になるのだろう。

1:番組宣伝として事前に本編のつかみをリークする。

2:出演者のファンクラブに向けて登場シーンのダイジェストをリークする。

3:動く番組表のEPGを構成する要素データとしてリンクする。

4:スポンサーとの商品タイアップでクリップを立体的に利用。

5:放送時間に、同時にインターネットでもライブ放送して、テレビへ誘導する。

6:番組アーカイブとして保存、ポータルサイトから検索に対応する。

7:セルビデオ、DVDなどの番組再商品化のプロモーションと連動する。

8:他国籍メディアへ番組販売のチラシ的用途のサムネールを提供する。

インターネットのネットワークを利用することで、番組コンテンツを表現するクリップは、わずかな編集作業だけで様々な利用用途へ多角的に、しかも低価格でおこなうことができる。

インターネットのページを飾る映像は、映像としての品質の問題よりも、露出機会と、タイアップメリットを商品化することで、新たなビジネスチャンスが生まれようとしている。

これらのことは番組に限ったことではなく、映像コンテンツ全てに通用する利用方法であるかもしれない。

多様な露出機会を支えるためには、スピーディーで簡単なエンコードシステムの常設をビデオスタジオは真剣に考えるべき時代になっているのだ。

従来のエンコードシステムではホームユースを意識した低価格な構成ゆえに、ビデオスタジオでのインターフェースに民生の規格で接続することになる。

また、フリーのソフトを中心に考えたエンコードシステムは、同時に複数の処理を行うことが困難で、結果的に複数システムの煩雑化で苦労することになる。

業務用途を目指したエンコードシステムで、テレビ番組からWebCastのデータを切り出すエンコード作業に注目して見たい。

それでは処理の手順から見てみよう。

私たちが普段制作する番組はD1D2などのデジタルビデオテープに収められ納品するケースが圧倒的だ。このようなデジタルテープから再生してエンコードする場合でも、ノンリイア編集システムから直接エンコードする場合でも、SDIなどのインターフェースを介してコピーを行うことが品質劣化を最小限にするために効果的だ。

どうせ、圧縮してしまうのだからと、安直な方法をとると痛い思いをすることになる。

圧縮作業は品質の高い素材ほど効果的なのだ。

画面が寝ぼけてくると、圧縮がかかりにくいばかりでなく、輪郭も曖昧さが増してくる。

来るべきブロードバンド時代に向けて、出来るだけ品質を高く保ち、様々な工夫や処理を加えた作品を、綺麗にネットワーク配信するためには、高品質なデジタルデータのままエンコーダーへ引き込めるインターフェースが必要なのだ。

今回紹介する「StreamFactory」は、編集スタジオや、中継車、放送局の副調整室に常設しておきたい業務用ビデオエンコーダーだ。

ラックマウントで1Uしかない省スペース設計のStreamFactoryは、スタジオで邪魔にならない。操作はネットワークで接続したパソコンのHTMLブラウザーからコントロールできるので、どこからでも運用できる。

入力できるビデオフォーマットはSDIDV、アナログではβカムコンポーネント、YCコンポーネント(S端子)、コンポジットと多彩だ。DV入力の口(IEEE1394)も用意されているが、これはオプションのDVコーデックチップの搭載されたドータボードを必要とする。

オーディオもSDIエンベットや、AES/EBU、アナログではキャノンコネクターのバランス接続、ミニステレオプラグのアンバランス接続などが選択できる。

エンコードの選択では、RealVideoと、WindowsMediaを同時に稼動する事が出来る。

つまり、2種類のフォーマットのストリームデータを同時にエンコードできるのだ。

しかも、ライブでそれぞれのサーバーへ送出するだけでなく、オンデマンド用のストリームデータも同時に作って保存することが出来る。もちろん2種類のフォーマットのファイルがリアルタイムで出来てしまうのだ。

従来では、それぞれのフォーマット毎に別のエンコーダーシステムを用意して、ライブ送出と、オンデマンド用のファイルも別システムで行うか、ライブの記録をVTRなどで行い、再度そのデータをオンデマンド用にエンコードする必要があった。

StreamFactoryではオンデマンド用のファイルを、その場でCD-ROMへ焼き込めるようにCD-Rも標準で装備されている。

放送業務以外にも、会社、スタジオ、および教育現場でのwebcastingのために最適なリアルタイムのウェブ・メディア・エンコーダーだ。これは一見の価値が在る。

弊社(FTT)のビデオサーバーと、映像データベースを組み合わせたシステムと、多様な映像クリップを簡単、迅速に生み出すStreamFactoryのソリューションを、常時デモが行えるので、ぜひ自分の目で確かめてほしい。

本体価格:¥1,540,000_

このアーカイブについて

このページには、過去に書かれたブログ記事のうちエンコーダソリューションカテゴリに属しているものが含まれています。

前のカテゴリはインフラベースです。

次のカテゴリはオーディオプロセスです。

最近のコンテンツはインデックスページで見られます。過去に書かれたものはアーカイブのページで見られます。

Copyright 1996-2007 & copy; DreamCraft