« 2009年02月 | メイン | 2009年04月 »

2009年03月26日

動画シーン引用とシーンプレイリスト

以前のエントリー「動画作文のすすめ」でも書きましたが、僕たちが運営している動画サイトSynvieでは、動画の一部を他のWebコンテンツ(主にブログ)内で引用する手段を提供しています。
ただし、引用できる動画はSynvieに投稿されている動画に限定されています。
これは、他の動画サイトのコンテンツが永続化される保証がないからです(無論、Synvieでも投稿者からの削除依頼があれば対応しますが、それ以外の理由でコンテンツを削除することはありません)。
オリジナルコンテンツがネット上に存在していないにも関わらず、それを引用したコンテンツのみアクセス可能である状態は好ましくありません。
そんなものは今でもいろいろある(たとえば、印刷物である本の引用など)じゃないか、と思われるかも知れませんが、それはネットのない時代にやむを得ず行われていたことをあいかわらずネット上でも行っているだけのことで、ネットならではのコンテンツのあり方としては理想的なものではないと思います。

やはり、引用によってオリジナルコンテンツの制作者の意図を歪めてしまうことはままあると思いますので、必ずオリジナルにたどりつけるようになっているのがよいでしょう。
また、ネット上のコンテンツならばブログのトラックバックのようにリンクを後から挿入することができますから、オリジナルコンテンツの方にも、それを引用しているコンテンツへのリンクを追加することができます。
無論、Synvieでは、動画内のどの部分が引用されているのか簡単にわかるようになっています。
そしてそのコンテンツへのリンクをたどれば、どのような文脈で引用されているのかすぐに確認できます。

さて、動画シーン引用の仕組みは一応できたのですが、それを使ってさらに面白いことができないかと思って、僕のいる研究室の学生が作っているものはシーンプレイリストというものです。
これは、引用されたシーンをつなげて連続的に視聴できるようにしたものです。
複数の動画のちょっとした面白いシーンを集めて、適当に順番を決め、それらしいタイトルをつけて、自分専用のあるいは他者と共有する新たな派生コンテンツとすることができます。

シーンのつなぎの部分の実装が不十分のため、切り替えに若干間があいてしまうのがよくないと思いますが、これから少しずつ改善していきたいと思います。
ご興味のある方は、ぜひ一度試してみていただけるとうれしいです。
プレイリストの作り方は以下の動画を参考にしてください。

これからSynvieの新しい機能であるビデオシーンプレイリストについてご説明します。

まず、トップページのタブ一覧から「プレイリスト」を選んでクリックします。

すると、上のようにプレイリストのトップ画面が表示されます。
これは、過去に登録ユーザーによって作成され、共有されたシーンプレイリストの一覧です。

そして、一覧の中からどれかを選んでクリックすると、プレイリストの閲覧画面になります。

左側にビデオとコメント(シーンに対してではなくプレイリストに対するもの)の画面、右側にシーン一覧とそのシーンを引用しているブログエントリーの情報が表示されます。

プレイリストのシーンはすべて以前に登録ユーザーによって引用されたことのあるシーンです。
つまり、プレイリストを作成する時点では、シーンを決定する作業は終了していなければなりません。
そのシーンの決定は、以下のビデオのような、以前にこのブログでご紹介した仕組み(ビデオシーン引用)で行われます。

シーン引用は、ビデオ視聴ページなどで「ブログを書く」ボタンをクリックして行います。
このときに設定したシーン区間が、プレイリストの要素になります。
ただし、シーンを決定するだけでなく、ブログに引用・公開しないと(自動生成されたHTMLをブログエントリーにコピペして公開する)プレイリストには使えません。

視聴中のプレイリストを編集、つまり、要素の順番を入れ替えたり、いくつかの要素を削除したりすることもできます。

上のビデオのように、シーン一覧の上にある「プレイリストを編集する」ボタンをクリックすると、編集モードになりマウス操作で簡単に編集できます。

上記の編集は一時的なもので、単に閲覧中にちょっとリストを変えたいときに行うようなものですが、何度も閲覧したいと思ったときは、保存しておくことができます。

これも簡単で、やはりシーン一覧の上にある「保存する」ボタンをクリックして、プレイリストのタイトルやタグやコメントを記入して「登録」ボタンを押せばOKです。
ここで、ユーザー登録してログインしているときは、「全体に公開」というチェックボックスが出ますので、他のユーザーと共有したいときはチェックした状態で、自分だけが見たいときはチェックを外した状態で登録してください。

さて、すでに共有してあるプレイリストを加工するのではなく、新しくプレイリストを作成したい場合は、ちょっとだけ面倒なことをやる必要があります。
まず、プレイリストのタブをもう一度クリックして、トップ画面に戻ります。

そして、上のビデオのように、「プレイリスト作成」というグレーのボタンをクリックします。
そうすると、新しいウィンドウが現われ、プレイリストを作成するためのいくつかのやり方を選ぶことができます。
デフォルトでは、ビデオシーン検索において、プレイリストに登録したシーン一覧が表示されます(これに関する説明は省略します)。

以下では、シーンプレイリストを作成する三つの手法についてまとめてご説明します。

一つ目は、ビデオを選ぶと、そのビデオの引用されているシーンをすべてリストにするやり方です。
二つ目は、(Synvieから自動的にトラックバックリンクが張られている)ブログエントリーを選ぶと、そのエントリー内で引用しているシーンをすべてリストにするやり方です。
三つ目は、シーン検索用のタグクラウドからタグを選ぶと、そのタグが関連付けられたシーンをすべてリストにするやり方です。
三つのやり方で共通しているのは、初期リストが生成された後に、その一覧とチェックボックスを使ってプレイリストに含めるシーンを決定する作業です(最初はすべてのシーンにチェックが入っています)。

投稿者 nagao : 09:09 | トラックバック

2009年03月22日

会議革命、その後(前編)

僕のいる研究室でのミーティングではこれまでにさまざまな試みを行ってきているけれど、残念ながら議論の質を向上させるような革新的なものにはまだなっていない。
僕たちの努力の大部分は、会議内容を詳細に記録して、議論の検索や閲覧がやりやすくなるように、会議中にできるだけ多くのメタデータを付けて構造化し、コンテンツとして共有できるようにすることに費やされてきた。
しかし、たとえ、議論を(半自動的に)構造化コンテンツにするという試みがうまくいっていても、それだけで、よい議論ができるというものではない。
会議をコンテンツ化しても、それを役立たせる努力がなければあまり意味がない。

僕たちがこれまでに作ってきた仕組みは、会議後に繰り返しコンテンツを利用することでじわじわと効き目が出てくるもので、会議の運営そのものに直接的に効力を発揮するものではなかったのである。

実は、以前から気になっていたのだけど、ファシリテーション(facilitation)というビジネス用語がある。
これは会議を含むタスク指向のコミュニケーションを円滑に進め、問題解決や合意形成を促進するための技術や方法論のことである。
要するに、話し合いをうまく仕切り、議論を誘導し、参加者の意欲を向上させる調整役がやるべきことや必要なスキルをまとめたものである。

さらに、議論の流れや会議の雰囲気を可視化するグラフィックファシリテーションという手法もある(参考)。
このグラフィックファシリテーションを生業とするグラフィックファシリテータという専門家もいるらしい。
グラフィックファシリテータは会議を傍観しながら自分が感じたことを文字やイラストにして、壁に貼られた大きな紙に延々と描き続けていくらしい。
参加者はときどきその絵を見て、これまでの流れや今の状況を雰囲気を感じ取ったり、イラストを見てなごんだりしているらしい(いわゆるアイスブレイカーのようなものだろうか)。
また、会議終了直後にその絵を参加者全員で振り返って、グラフィックファシリテータがなぜそのような絵を描いたかを説明していくそうだ。

単なる文字の羅列より、ところどころにイラストがあった方がわかりやすい(ような気がする)し、巧みな色使いで会議の盛り上がり(発言者の熱意)が感じられたりする、というのはよくわかる。
また、会議の参加者の多くは、議事録はあまり読む気にならないが、グラフィックファシリテータの描いた絵は見て面白いし、記憶に残りやすい、という感想を持つらしい。
これはその通りなのかも知れないが、本当に議事録より絵の方が役に立つのだろうか。
文字ばかりの本より漫画の方が一般に読みやすいし、(マルチモーダルだから)記憶に残りやすいのは確かなのだと思うけれど、言葉として表現されたものを単純な絵にすることによって失われてしまう内容はかなりあると思う。

実際、該当する会議の参加者でない僕が、グラフィックファシリテータの描いた絵を見てもどうもピンとこない。
つまり、議論の深い内容がまったく伝わってこない。
その要因は、グラフィックファシリテータが必ずしも議論の専門的内容に精通していないため本質的な意味的内容を可視化できないことや、会議の参加者以外にはその会議の臨場感などの文脈が絵だけではあまり伝わらないため、描かれた絵と会議の文脈をうまく結び付けることができないためであろう。

いずれにしても、グラフィックファシリテーションは、議論を再利用するためのコンテンツ化というよりも、会議の運営そのものに効力を発揮する、ある意味、その場限りのツールなのだと思う(無論、会議の参加者にとってはそのときの記憶の想起を促すものにはなっていると思うが、長い時間の後に詳しい内容を思い出すことはおそらくできないだろう)。

僕たちのツールに欠けていたのは、まさに、この「会議の運営に直接的に効力を発揮する」機能である。
実は、そのような機能がまったく存在しなかったわけではなく、たとえば、参加者が直前の発言に同意しているかいないかをリアルタイムに表示する仕組みや、ある意見に賛成か反対かをその場で投票してすぐに結果を表示する機能などが実装されていた。
問題は、それらがほとんど使われておらず、通常の会議の運営にあまり貢献していないことである。

そのような機能が有効に活かされていない理由は、僕たちの会議にファシリテータがいないため、議論を鳥瞰し、それらの機能を使うべきタイミングを見極めて、使用を促すような人がいないためだろう。
ゼミでの発表者がファシリテータにもなれるとよいのだけど、説明と質問への回答で一杯一杯で議論の調整にまで注意を働かせる余裕がないのだろう。
あるいは議事録を作成している書記がそうなれるとよいのだけど、これも発言内容を要約したテキストのタイピングで一杯一杯のようである。
では、責任者である僕がやればよいのかも知れないが、議論の内容に集中しているので、やはりメタ的な調整は困難である。
それに、機能を使うべきか否かは学生たちに自分で判断して欲しいので、内容以外のことについてはできるだけ黙っていることにしている。

そもそも、ファシリテータなどいなくても参加者の自発的な努力でよい議論ができるようになるべきだろう。
意欲はあるけれどスキルが足りない人のためにテクノロジーが機能するべきである。

つまり、僕らが作るべきものは、誰にでもファシリテーションができるようになるための支援技術なのである。

それで、最近、僕のいる研究室の学生たちが作っていたものは、議論の構造の可視化(ある発言がその前のどの発言と関係しているかをグラフ化したもの)および自動的に作成されたそのグラフを発言者がリアルタイムに修正できる仕組みと、会議中に過去の議論の内容を振り返るための検索およびその発言のビデオ再生を行う仕組みである。

この議論の構造化は僕たちのオリジナルの技術である。
これはもともと、議論コンテンツを効率よく閲覧するために、議論のまとまり具合や要点を機械的に調べることを目的に考案・開発されたものである。
そのため、基本的には、コンテンツが作成・共有された後に初めて利用されるものであった。
しかし、もしこの構造化や可視化が会議中にも効果があるとしたら、ファシリテーションに使えるかも知れない。

会議中に以前の議論を振り返るための新しい仕組みは、会議の運営に直接的に貢献すると期待される。
これは、過去の議論を発表スライド、書記によって記録された各発言(発言者名と複数のキーワード)、ビデオ(および発言テキスト)を見て振り返るものであるが、特徴的なのは参加者全員で協調的に検索や選択を行うことである。

これは、一人の記憶だけを頼りにして、短い時間内に参照すべき内容を見つけ出すことが困難な場合に有効である。
ビデオを見れば誰が何を言ったのか明らかになるので、結論や背景が曖昧になってしまった状況を打開することができる。
しかし、過去の内容の確認ばかりに時間を使ってしまったら、とても創造的な会議はできないので、振り返りに使える時間はかなり限られている。

そこで、僕たちの考えた一つのやり方は、メインスクリーンに過去の発表のスライドサムネイルを複数表示して、参加者がポインタで指して適切なものを選び、そのスライドに関して行われた議論の構造を可視化して表示し、さらに、議論中の発言をビデオで視聴する、というやり方である。

僕たちのミーティングでは、メインのプロジェクタスクリーンとサブの大型ディスプレイを用いており、振り返りのフェーズでは、メインスクリーンに以下の図のような、ポインタで指しながらスライドや発言内容を思い出していくためのインタフェースが表示される。

dr_main.png

また、サブディスプレイの一部には以下の図のような、メインスクリーンで選択した発言を再現するビデオと書記が入力したテキスト情報が表示される。

dr_sub.png

この仕組みによって、過去のスライドや発言をざっと見聞きすることで、これまでの話の流れを思い出して、過去を踏まえた、よい議論をしようということである。
過去の発言が現在の議論の直接的なきっかけになっていることが確認できたら、複数の議論が自動的にリンクされるため、後で、結論に至ったプロセスを詳細に調べたいときに有効であろう。
しかし、これだけではまだ足りない。
過去を確認できる仕組みは、参加者の議論スキルを直接的に向上させることには貢献しないからである。

よって僕たちの会議革命はさらに続くのである。

投稿者 nagao : 22:36 | トラックバック

2009年03月18日

知能メカトロニクスへの接近

前回のエントリーで触れた情報処理学会全国大会で、パートナーロボット(日常生活において人間の支援をするロボット)に関する特別セッションが行われ、その中でメカエレキソフトという奇妙なキーワードが使われていた。
また、機械工学の分野では「ITとRTの融合」というスローガンが掲げられていて、今月の24日に神戸大学でシンポジウムが行われるらしい。
ここで、RTとはRobotic Technologyつまりロボット技術のことである。

要するに、情報系の研究者も機械系の研究者も共に、情報技術(特に、人工知能)と電子制御機械技術(主に、ロボット)を統合的に発展させる必要があると考えている、ということだろう。

これには僕もまったく同感である。
ただ、僕が期待しているのは、ロボティクスではなくメカトロニクス一般である。

メカトロニクスとはメカニクスとエレクトロニクスの合成語である。
つまり、機械系と電子系を統合するシステム(つまり、電子制御の機械)のことである。
これは、現在、実際に世の中で稼働している機械のほとんどを指している。

そして、知能メカトロニクスは、電子制御の機械を知能化する(情報技術によってより知的にする)技術である。
物理的な機械を知能化する典型的な例は、ヒューマノイドに代表される知能ロボットであるが、単純に、知能メカトロニクス=知能ロボティクスだと認識されると、視野を狭くする恐れがある。
たとえば、自動ドアやエアコンの風を人のいるところに向けるシステムをロボットだと認識する人は少ないと思うが、これらは情報技術と電子制御機械技術が統合されて初めて実現する(あるいは実現が容易になる)ものである。
さらに、自動ドアとエアコンを連動させると、それぞれをより高度にすることができる。

機械の知能化は、当然ながら実世界のセンシング(知覚)の高度化とネットワーク化を含むので、複数の機械が実世界の認識と通信機能を持つことで初めて可能になるアプリケーションが考えられる。
知能メカトロニクスの典型例は、分散化されたセンサーシステムにアクチュエータ(駆動系。アームロボットのような複雑なものでも、車輪のような単純なものでもよい)を統合したものである。

人工知能の目標を、高度に自律的な知能(および身体)の実現とすることはわかりやすいけれど、僕が考える人工知能のより重要な目標は、人間そのものを強化(あるいは進化)させる効果的な手段を実現することである。
そのためには、人間をシステムの中心に置き、人間を取り囲む環境をより知的で高度にすることを考えるべきだろう。

僕が考える知能メカトロニクスとは、ユーザーを中心とした、物理的・情報的環境を拡張・強化あるいは知能化するための技術およびその研究領域である。

そして、このブログでは何度も取り上げているが、知能メカトロニクスを具体化するために、僕たちは、ネットワーク化された個人用の知的な乗り物を研究開発している。

移動体を知能化すること自体は、かなり以前から行われており、実用化も進められている。
たとえば、自動車向けに開発されているプリクラッシュセーフティシステムである。
これは、道路走行中に前方の車両に衝突しないように自動的にブレーキをかけたり、衝突時の人間にかかる衝撃を弱められるように自動的にシート(主にヘッドレスト)を調節するものである。
このようなシステムの延長線上に、すべての移動体を自動走行させてネットワークで情報を管理し、事故を未然に防ぐシステムが考えられる。

ネットワーク化され情報共有が可能な乗り物を、個人の行動支援のレベルまでブレイクダウンして、人間の身体と知能を拡張するシステムとして乗り物を再考したのが、僕たちの研究している個人用知的移動体(ATと呼ばれている)である。
ATは、現在まで、目的地への自動走行、人間を含む障害物回避、対象物の認識とそれへの誘導、人間の自動追尾、複数台の連携走行と衝突回避、などを可能にしてきた。
もちろん、環境側にもいくつかの仕掛けが必要であるが、ATが今できることが何なのかだいぶわかってきた。
やはり、ソフトウェアだけでなくメカやデバイスを一緒に考えると、発想がかなり広がっていくことを実感できた。
しかし、人間の感覚・思考や運動の柔軟さにはまだまだ遠く及ばないので、人間の知能と身体の拡張のためには多くの研究が必要だろう。
とても面白いテーマだし、メカやデバイスに詳しくなくても手探りで何とかやっていける研究なので、できれば多くの人に興味を持ってもらいたいと思っている。


ところで、最近、つくづく日本人の発想力はすごいなあと思ったのは、「ライドバック」というアニメを偶然見たときである(どうやら、これは名古屋では放映されていないらしい)。
これは、バイクを搭乗型ロボットに進化させた乗り物(その名前がライドバック)が主要な舞台装置となっている物語である。

ライドバックには2本の腕が付いていて、2個の車輪を支えるフレームが足のように動かせるようになっている。
そのため、何かをつかんだり、ジャンプしたりできる。
バイクがロボットに変形するシステムは、かなり以前からアニメや特撮番組の世界ではいろいろあったけれど、ロボットに変形するのではなく初めからそういう乗り物(ただし、フレームが可変なので形態は変化する)にして、日常生活にほぼ定着している設定にしたところがとても面白い(ちなみに、劇中の年代は2020年だそうである)。

実は、僕もATに腕をつけたり、ジャンプできるようにサスペンションを工夫することをずっと考えていた。
さすがにライドバックのような乗り物は兵器としても使える(劇中では画期的な戦術兵器として扱われている)ため、実際に開発すべきだとは思わないけれど、乗り物が搭乗者をさまざまな危険から守るために、何かにつかまったり飛び上がったりする仕組みを持つのはとても有効だと思う。


そんなわけで、僕が最近ずっと考えている、人工知能研究の新しいステップとしての知能メカトロニクスについて、ATに関する研究活動を例に挙げて、詳しくお話しようと思っています(ただし、ライドバックについては触れません)。
ご興味のある方は、以下の研究会に奮ってご参加ください。

情報処理学会 第155回知能と複雑系研究会

2009年3月20日-21日
会場:公立はこだて未来大学 593教室
会場へのアクセスは
http://www.fun.ac.jp/acces/index.html
を参照してください。

テーマ「人工知能がこれから目指すべきもの」

3月20日
10:00 - 11:00
中島秀之(公立はこだて未来大学)
知能への進化論的アプローチ
11:00 - 12:00
片桐恭弘(公立はこだて未来大学)
文化の計算理論を求めて

14:00 - 15:00
小野哲雄(公立はこだて未来大学)
HAIによる環境知能の実現へ向けて
15:00 - 16:00
橋田浩一(産業技術総合研究所)
知識循環と持続可能なサービスの設計

3月21日
10:00 - 11:00
大沢英一(公立はこだて未来大学)
複雑ネットワークからの構造情報抽出
11:00 - 12:00
長尾 確(名古屋大学)
知能メカトロニクスへの接近 - 個人用知的移動体を例にして -

14:00 - 16:00
パネルディスカッション(パネリストは講演者全員)

これらの講演やディスカッションはビデオ撮影をして、後日ネットで公開する予定です。
そのときは、このブログでもご紹介します。

投稿者 nagao : 00:50 | トラックバック

2009年03月14日

ビデオアノテーション研究には未来があるか

つい先日、情報処理学会第71回全国大会という研究集会が滋賀県の琵琶湖の近く(といっても琵琶湖は見れなかった)の立命館大学で開催された。
僕のいる研究室からは、ほぼ全員がそれに参加して研究発表を行った(僕も一応、発表登録をしたが、学生の発表と時間が重なってしまったのでキャンセルした)。

その中で「マルチメディアとメタデータ」という僕たちの研究テーマとよくマッチするセッションがあり、僕のいる研究室の学生の一人がそこで発表した。
これまでに作ってきたシステムのデモをいろいろ見せながら、実験結果も報告して、なかなかよい発表ができたと思っている。
僕はこのシステムの設計にはずいぶん知恵を絞ったので、かなりの思い入れがある。
この学生もよくがんばったし、僕の期待にも応えてくれた(正直、大学に来てから今までで、最も指導のし甲斐があった学生である)。

しかし、そのセッションの座長の評価はさんざんであった(優秀な発表を表彰する賞に関して「該当者なし」という判断がなされた。これは僕たちの研究発表が特にダメという評価ではないが、すべての発表がダメという評価なので、いずれにせよ、高い評価ではなかった。ちなみに、座長がこのような判断を下したセッションは110件中たったの3件だったそうである。まったく関係がないが、「スター誕生」という往年の人気番組の萩本欽一のせりふ「バンザイ。。。なしよ」というのを彷彿とさせる)。
何がどう悪いのかまったく説明がなかったので、いったいどういう方向にこの研究を導いていけばいいのか迷いが生じてきた(本人に直接、何が問題なのか問い合わせればよい、という意見もあるだろうけど、「(賞の)該当者なし」とだけ言い切ってその場を立ち去った人間に何を聞いてもまともな答えは返ってこないような気がする)。

僕たちが取り組んでいる「ビデオアノテーション研究」すなわちビデオに対するコメントやタグなどのメタ情報を収集し、ビデオの意味的な内容を解析して、さまざまなアプリケーションを実現する研究は、今後、大きな発展の余地があるのだろうか。

最近、YouTubeもビデオアノテーションの仕組みを取り入れ、ビデオの投稿者が許可するユーザーが、ビデオ内の任意の時間の画像の任意の部分に吹き出し風のコメントを付けたり、他のコンテンツへのリンクを付けたりできるようになっている。
ニコニコ動画よりまともなコメントが付くようになれば、いろいろと利用価値もあるだろう。

ちなみに、上記のセッションでは、ニコニコ動画のコメントから意味のある情報が抽出できるかどうかを試みた研究発表もあったが、結果はあまり有意義なものではなかったようである。
まあ、これは研究対象がダメすぎたのかも知れないけれど。

僕たちが研究しているビデオシーン引用もこれからさらに面白くなっていく予感はするのだけど、今のところ、あまりよい反応はない。

ビデオアノテーションに関しては、明らかに、僕たちの研究が先行していたと思っている(僕がビデオアノテーションの研究を始めたのは1998年のことである)が、もうほとんど「時代に追い付かれてしまった」という気がしている。
だから、再び引き離すには一体何をすればいいのか、また、僕たちにこれから何ができるのか、苦しみながら必死に考えているところだったのである。
そんな状況で上記のような評価をもらったのでショックが大きかった。

確かに、現時点で、ビデオアノテーションによってできることはあまり多くはないだろうし、驚くような結果(たとえば、任意のキーワードにぴったりマッチするビデオシーンが検索される、など)が出ているわけでもない。
しかし、ビデオ(のシーン)を主要な素材としてネットならではのコンテンツを作っていくためには、どうしてもこの研究が必要だと思っている。
だから僕は、この研究には未来があると信じている。

投稿者 nagao : 02:17 | コメント (4) | トラックバック