そこで、と言ったのが、インターサイエンス社+デジタルモーション社の2D→3D変換システムだ。これは、静止画によるものと動画によるものとがある。
静止画は、普通の平面画像(プレイボーイのおねえちゃんの写真を使ってた。ちょっと版権的にまずそうなので、写真はカット)から、とにかく2枚の視差のある画像をつくってしまう。被写体の光のあたり方に着目し、思いっきりおおざっぱに言うと、「明るいものはたいてい前の方にある」「影が回っているところは後のほうになる」なんてことを使っているんだそうだ。さすがにこれだけだと誤認識するところもあるので、多少、人間の手でレタッチする要素もあるらしい。
動画はもっとダイナミック。たいていの場合、数フレーム前後を見れば、そこに視差のある映像があるものだ、っていうのが基本の考え方。それを左右の画像として使えば、もうそれは立体視というわけ。処理は自動で行われるのだけど、どのフレームとどのフレームを選択するかは、その都度最適なものを探し出す。それをどうやって選び出しているかは、「ノウハウ」だそうだ。また、この処理はほとんどリアルタイムに行われる。処理は実時間で行えるのだけど、たまにフレームを飛ばすことがあるらしい。
原理的に、飛行機やクルマが左右に走ったり、カメラが横にパンするときに最大の効果が得られるわけだ。また、これと静止画の手法とを組み合わせルことも考えているそうだ。
昨年の「インタラクション2003」で発表されていたものが、「産業用」として展示されるようになっていた。
中央に穴のあいたテーブルのまわりを、HMD(ヘッドマウント・ディスプレイ)をつけた人たちが取り囲んでいる。HMDごしに見ると、穴の中に立体画像のオブジェクトが見えているのだ。自分の立ち位置を変えると、それに伴ってオブジェクトの見える向きも変わる。向う側から見ている人は、こっちから見るのは裏側が見えているというわけ。
実は、穴の下には大きなスクリーンがある。そしてHMDの位置を超音波センサーで検出して、穴を通して向う側になるところにオブジェクトの画像を表示しているといるのだ。穴のあいた板をとりはずすと、それぞれのHMD用の画像がいくつも表示されているというわけだ。
これがあるのは、IVRではなく「機械要素技術展」の日本SGIのブースだ。
人間とコンピュータのインターフェースをとるのに感情(Sense)を使ってみようという考え方である。研究をしているのはAGIというベンチャー企業。ここがSGIと事業提携したのだ。
まずは、これを見てほしい。といっても、音声がちょっとこわいので、会社で見ている人は周囲に気をつけて。
コンピュータと人間のケンカである(この人間が、AGIの光吉俊二社長)。よく聞いているとわかるのだけど、コンピュータは人間のしゃべる「内容」は全く聞いていない。音声認識で意味をとるなんてことはしていないのだ。とっているのは「口調」である。相手の口調が怒っているのか謝って(なだめて?)いるのかを判断して、それによって自分の感情パラメータを変えていっている。もっとも、これはケンカデモなので、基本がけんか腰なんだけど(*3)。
音声などでインタフェースをとるとき、人間の感情が今どういう状況なのかを判断することが、これからもっと重要になってくる。とくに、音声インタフェースが使われるようになると、キーボードやマウスよりももっと感情が大事になる。
この研究によって、コンピュータ(もはやロボットといったほうがいいか)側も感情表現ができるようになれば、まずは「HAL9000」、さらにはナイトライダーといったインタフェースができるようになるはずだ。
*3 光吉社長って、えらくおもしろいひとです。この人には、いちどちゃんとインタビューしてみたい。
Copyright © ITmedia, Inc. All Rights Reserved.
Special
PR