2010年12月 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31

2009年10月11日

継続は力なり

2005年8月にこのブログを始めて、今回でようやく100エントリー目になりました。
毎日書いている人なら100日で達成することですが、僕は4年以上もかかってしまいました。
今後、特に時間的に余裕ができる予定もありませんので、おそらくこれからも同様のペースで書いていくことになるでしょう。

僕としては、このブログを書いてきたことで、特に新しいことができるようになったわけではないと思っているのですが、まとまった文章を書いて公開していく習慣が身に付いていないと、考えていることがうまく整理できず、人にちゃんと伝えられなくなってしまうのではないかと思っていますので、これからも細々と続けていこうと思っています。

ただ正直、このブログを書くことで、僕が普段考えていることや、これから研究したいと思っていることを、指導している学生たちに多少なりとも知ってもらいたいという気持ちがあります。
でも、いざ学生から「先生、ブログ読みましたよ」とか言われると、照れくさくて話をそらしたりしています(われながら複雑なのです)。

よく「エントリーが長いよ」と言われるのですが、これには理由があります。
やはり、文章が短いと文脈がわかりにくくなりますし、後で読み返しても自分が何を考えてこれを書いたのかわからなくなるのがまずいと思って、それなりの分量にならなかったものはブログにアップしていません(つまり、書きかけてアップしなかった草稿が結構あります)。

ちなみに、僕が流行りのTwitterをやろうと思わない理由の一つは、周囲の文脈から切り離された短文では、深い内容を伝えることは無理なのではないかと思っているからです。
単なる「つぶやき」にそんな深い意味を求める人はいない、と思われるかも知れませんが、僕は、あまり意味のない文を不特定多数が検索可能な状態でネットに置いておきたくはないのです。
これはけっして、短文には深い意味がないと言っているのではありません。
ブログや動画など、参照しているコンテンツが明確になっている場合のコメント文は、ある程度文脈を読み取ることができるので、短くても深い意味を伝えることができるでしょう。

さて、100エントリーというのは量としてはあまりたいしたことはなさそうですが、切れのよい数ですので、このテキストを使って少し実験をしてみようと思います。
まず、文書解析をして自動的にカテゴリやタグを生成してみようと思います。
今まで、エントリーを内容に基づいて分類してこなかったのは、面倒だったからというのもありますが、データがそれなりに揃ったら、それをじっくり眺めて分類方法を考えようと思ったからです。
それに、初めにカテゴリを設定しておくと、内容とカテゴリが合っているのかどうか悩んだり、カテゴリのバランスを取ろうとか余計なことを考えて煩わされると思ったのです。
今後は、これまでのエントリーから機械的に抽出した特徴で分類した結果を、人手で編集することでカテゴリを作成していこうと思います。

と思っていたら、京都大学がNTTの研究所と共同で、ブログを解析したコーパス(例文データベース)を公開していることを知りました(参考
これは、大学生81人が執筆した249記事(4186文)を含んでいるそうです。
このコーパスは、形態素や構文情報の他に、省略や照応(代名詞などの参照)のアノテーション、さらに評判表現アノテーションという、何らかの対象に個人的意見を述べている表現に、以下のような意味的属性を付けたものを含んでいるそうです。

評判タイプ:評判の種類と評判の極性。
当為: 提言、助言、対策。「~すべきだ」「~しましょう」
要望: 希望、要求。「~してほしい」「~を求める」
感情(+か-を伴う): 気持ち。「好き」「悲しい」
批評(+か-を伴う): 賛成と反対、称賛と批判。「素晴らしい」「納得できない」
メリット(+か-を伴う): 利点と欠点。「効果がない」「うるさい」
採否(+か-を伴う): 積極的利用、推進。「利用する」「導入する」「採用する」
出来事(+か-を伴う): 良い/悪い出来事や状態。「壊れた」「受賞した」

これは、なかなか興味深い言語データです。
評判情報に関しては、機械的な解析のみでは精度が低いですし、人間が修正するとしても、著者本人にしか正解がわからない場合があるので、ちょっと怪しいですが、言語構造に関しては、機械学習用のデータとして有益だと思います。
以前に、ワードローグというシステムで、このブログを形態素解析して、未知語(辞書にない語彙)や省略・照応の情報を付けていたのを思い出します(忙しくてまだプログラムの続きを作っていませんが)。

僕は、人の言語表現力が時間(つまり経験)とともにどう変化していくかに興味がありますので、それが可視化できるような仕組みを考えています。
言語表現力は文章をちゃんと書く能力のことで、それには、記述している文の構文的適格性(文法的に正しいかどうか)、語彙の適格性(言葉を正しく使い分けているか)や多様性(同じ言葉ばかり使っていないか)、文脈の論理性(前の文とのつながりが適切か)などが関わってくるでしょう。
他のコンテンツを引用している場合は、引用箇所とそれに対する言及箇所に明確な対応関係がないといけないと思いますので、それも評価してみたいと思います。
さらに、主張していることがぶれていないか、結論を述べずに先送りにしていないか、説明している内容が事実と矛盾していないか、などの内容の信用性に関わる特徴を、比較的簡単に調べられる仕組みについても考えてみたいと思っています。

ちなみに、このブログは、100エントリーで5139文(各エントリーのタイトルを含む)の分量です。
10000文くらいあると、それなりに面白い結果が得られそうなのですが、達成するまで、さらに3~4年かかってしまうかも知れません。

さて、次回からは、このブログをリニューアルして、トピックカテゴリやプロフィールなどを追加していく予定です。
更新は今月末になりそうですが、気が向いたときにでも見にきていただけると幸いです。
今後ともどうぞよろしくお願いします。

投稿者 nagao : 17:21 | トラックバック (0)

2009年09月28日

第参回天下一カウボーイ大会雑感

先月末に、秋葉原で「第参回天下一カウボーイ大会」というイベントが開催されました。
このイベントはアスキーのサイトでも紹介されています。

「天下一」はラーメン屋さんのことではなく、「ドラゴンボール」からの引用だと思いますが、「カウボーイ」って何だろうという感じですね(IT系のイベントという気が全然しませんが、まあこれでもよいのでしょう)。
これは、知り合いの清水亮さんが代表取締役社長を務める株式会社ユビキタスエンターテインメントと週刊アスキーの共催です(たまたま見た、今週号の週刊アスキーにこのイベントの記事がありました)。
僕は清水さんに頼まれてそれに出ることになったのです。

僕は、前回のエントリーで触れたATの話をしようか、Synvie(動画アノテーションとその応用)の話をしようか迷った挙句、研究室で運用している会議システムの話をすることにしました。
その理由は、「テクノロジーがそれを使いこなそうとする人間を賢くすることができる」ことを具体的に説明して、ただ面白いからやるというだけでなく、人類の未来のことを考えた発明を目指して欲しいと思ったからです。

サイエンスやテクノロジーの面白さを伝える話でも、アートやエンターテインメント寄りの話でもない、小さいアイディアでも積み重ねていくことに大きな意味があって、人がより賢くなれるためのツール、なんて地味な話をしてしまって、イベントの開催者側の意向にそぐわなかったかも知れません。
正直、ちょっと悩んだのですが、僕はこのイベントに参加する人(参加は有料)は割と頭がよくて深く考える人なんじゃないかなと勝手に考えて、ならば専門的な話で煙に巻いたり、瞬間芸的なインパクトで盛り上げたり、とかではなく、話を聞いてよく考えるとじわじわとありがたみがわかってくるような話にしようと思ったのです。
まあ、最初にちょっとしたデモをやったりして(あまりうまくいきませんでしたが)観客の受けを狙ったのは事実ですが(デモ中にステージ上をうろうろしていたら「落ち着きのない人」というコメントをいただきました)。

ちなみに、僕が講演で使ったWiiリモコンは以下の写真のもの(黒い方)ですが、リモコンの先端の横に装着されている黒い箱の正体は、赤外線LEDが発するIDを認識して、リモコンに伝達する装置です。
僕たちはこの赤外線IDを、リモコンを向けているスクリーンを識別したり、参加者の座っている位置を認識するために用いています。

wii_remote2.jpg

さて、このイベントでは、180ロデオと呼ばれる3分間のライトニングトークが売りでした。
基調講演などその他の講演も面白かったのですが、3分間のトークと比べると、(自分のを含めて)どれも冗長な感じがしました(もうこの手のイベントで1時間以上の講演は企画しちゃいけないと思います。特に2日目の講演というか雑談はこれが学会なら苦情が出るレベルです)。
このイベントに出て痛感したのは、短い時間でよい話ができるようなトレーニングをしなければならないということです。
それは、有名人でもない限り、自分の話を知り合い以外の人にじっくり聞いてもらえる機会はあまり多くはないのだから、その機会を無駄にしないために、簡潔で印象に残るいい話ができるスキルが必要だと思うからです。
僕は、このイベントの話を最初に聞いたときは、3分なんて初めの挨拶で終わっちゃうよ、と思っていましたが、全員の話を聞いて、それが間違いであると気づきました。
わずか3分間に、十分に内容のある話をデモを交えてわかりやすく話をすることのできる人はいる、ということがわかりました。
あと、即興ではないので、準備をしっかりしていない人の話はダメだということもよくわかりました(たとえ、システムの開発力が十分にあっても、ちゃんと話のできない人の話は印象に残りにくいです)。

とにかく、180ロデオは内容が盛りだくさんでとても面白かったです。
僕は審査員を頼まれたので、この参加者の発表を評価したのですが、この3分間でより多くの可能性を感じさせてくれたものに高い点を付けました。

何と言っても最も印象に残ったのは優勝したBlogopolisというものです。
これは見ていただければすぐにわかりますが、ブログのトピックを分類し、都市の景観(ブログがビルのメタファで表される)として可視化したものです(ちなみに、このブログを検索するとdesignとsoftwareの中間くらいにありました。まともなタグも何も付けてないのによく分類できたものです)。
僕はこの話を聞いて、「ああ、これが優勝だな」と思いました。

あと、モバイルプロジェクタとWiiリモコンを組み合わせて、どこでもアニメーションやお絵かきができるようにした仕組み(LEDにIDを付けて、タグとしてどこにでも貼り付けられるようにするともっと面白いと思います)や、位置情報付きの写真をイメージベーストレンダリングと呼ばれる手法で組み合わせ、過去の体験を想起できるようにしたバーチャルタイムマシンというシステム(MicrosoftのPhotosynthみたいなものですね)、さらに、運動を情報に変えるマスカラスというシステム(Wii Fitみたいなトレーニング支援だけでなく、新しいインタフェースに使えるといいですね。体力の程度に応じて得られる情報が異なるサービスとか。ちなみに、このシステムは、NHKのニュースでも取り上げられました)や、iPhoneを顔に持つ人型ロボット(iPhoneのカメラがディスプレイ側にも付いていると、もっと使えるのに)が面白いと思いました(結局、これらの発表は何らかの賞をもらったので、他の人の評価も似たようなものだったことがわかりました)。


司会の清水さんもよく場を盛り上げていました。
彼のような人がいるから、日本の若手エンジニアは未来への夢を共有できるのだなあ、と思いました。
僕のやり方とは全然違いますが、彼が、面白いことをいろいろと考えては、学生たちによい刺激を与えているさまを見ると、こういう教育もありだな、と思ったりします。
そんな彼が、僕の講演が終わったときに、「この人は僕にとって恩師と呼べるような人です」と言って僕を紹介してくれました。
その言葉が聞けただけで、僕はこのイベントに出てよかったと思っていますよ、清水さん。

投稿者 nagao : 22:52 | トラックバック (0)

2009年09月26日

先駆者になるためにPart 2

ご無沙汰しております。
かなり間が空いてしまいましたが、このブログを再開したいと思います。


つい最近、ホンダが開発したU3-Xという電動一輪車を見て、とても感銘を受けました。
何より驚いたのは、1つの車輪(正確にはオムニホイールと同様に複数の小型輪を外周上に配置した車輪)のみを使って全方位移動を実現していることです。
通常のオムニホイールと違って、小型輪にも動力があり、大型輪と組み合わせて全方位への力を発生させるだけでなく、乗っている人の体の傾きを3軸角度センサーで検知して、倒立振子制御の仕組みでバランスをとって倒れずに走ることができるようです。

この仕組みは予想外でした。
僕は全方位移動には最低でも2輪が必要だと思っていたからです(球型の車輪1個を使うというアイディアも検討しましたが、実装はあきらめました)。
セグウェイ以降、移動体の倒立振子制御があたりまえになっているとはいえ、1輪さらに全方位でそれをやるとは、やはり日本の技術力は優れていると思わざるを得ません。
ちなみに、電動一輪車を体のバランスで操縦する仕組みは、ホンダが初めてではなく、すでにeniCycleというスロベニアのベンチャー企業が開発したものがあります。
eniCycleは屋外を走れますから、U3-Xより実用性は高いと思います。
しかし、どちらにより未来を感じるかというと、僕にとっては明らかにU3-Xです。


僕は以前に「日本の企業はもう先駆者にはなれないのではないかと不安になった」と書いたのですが、今回のホンダの発表を見て、やはり、日本企業のものづくりはまだまだレベルが高いなあ、と思いました。
以前に、デンソー総研というところに見学に行った時にもそう感じました。
そこでは、1本キャタピラの悪路走行可能なバイクや、手塚治虫の漫画「W3(ワンダースリー)」に出てくるビッグ・ローリー(わかる人います?)みたいな大型一輪車を作っている人がいて、やはり革新的なものを作れるのは、ものづくりが好きでそのための努力を惜しまない人なのだろうと思いました。


それにしても、一輪車はスペース的には最小でも、ある程度以上のスピードを出そうとすると安定性が悪いので、同様のホイールを前後に配置した全方位移動2輪車を開発してはどうでしょう。
これなら通常のバイクのように乗れますし、デザインもいろいろ工夫できます。
いわゆるニーグリップの姿勢をとれるようにすれば、人間と乗り物の一体感が増して乗り心地も良くなるでしょう。
省スペースや可搬性を気にするのでしたら、折りたためるようにすればよいでしょう。
あるいは簡単に分解できて、同じくホンダの開発した歩行アシストのように装着型マシンとしても使えるようにするのはどうでしょうか(2個の車輪を片足づつに固定できて、残りの部分を背負えるようにするといいです)。

とにかく、何が何でも1輪にしなければならない理由は特にないと思いますので、2輪にすれば、安定性が上がりますし、(人間の補助なしに)その場回転ができますから、僕たちのATのように自律走行も可能になるでしょう。


ちなみに、AT9号機は最近、以下の写真のように、オムニホイールをメカナムホイールに変更しました。
これによって直進の走行安定性が向上しました。

at9new.jpg

しかし、相変わらず段差を乗り越えられないので、屋外を走行することができません。
ホンダのU3-Xもそうですが、これは大きなデメリットです。

そこで、自転車の車輪と同じ、通常の空気入りタイヤで全方位移動ができる仕組みを試作してみました。
それが新しく開発したAT10号機です。

at10_1small.jpgat10_2small.jpg

ただし、これはまだプロトタイプの段階で、メカニズムの検証を行ってから、設計と製作をやり直す予定です。
このプロトタイプを作ったのは、今年の11月に開催される「つくばチャレンジ2009」というイベントに出場するためです。
これは自律移動ロボットのコンテスト(正確には、優勝者を決めるわけではないので、コンテストとは呼べません)で、オープン参加で、各参加者の開発したロボットに約1kmのコースを自律走行させて結果を公開するというものです。

ATは自律走行可能な乗り物ですから、このイベントに出ることによって、現在の技術水準がどの程度のものなのか評価することができます。
AT9号機は屋内走行専用だったので、屋外の自律走行はまだあまり経験がないのですが、位置情報の取得方法が大きく異なる点と、路面の段差を考慮しなければならない点以外の部分はそれほど大きな違いはないと思います(もちろん、自動車やバイクなどのATより速い移動体との衝突回避は大きな難問なので、ここでは考慮しないことにします)。

屋内外の自律走行が可能で、全方位移動による安全な衝突回避ができる、実用性の高い乗り物を作るために、これからも研究を続けていこうと思います。

投稿者 nagao : 15:26 | トラックバック (0)

2009年04月03日

会議革命、その後(後編)

僕は、最近になってようやく自分の間違いに気がついた。

議論のスキルが向上するために最も必要なものは、ツールを使いこなすテクニックではなく、議論への参加意欲だった。
だから、どんな支援ツールを開発して運用しても、参加意欲がわかないのならば、学生たちの議論スキルの向上には結びつかないだろう。
実は、ゼミの成績を決めるときに、彼らの発表数と発言数を用いているのだけど、それがインセンティブになって積極的に参加してくれるかと思ったら大間違いだった。

つまり、参加者の意欲を高めることにもっと注力すべきだった。
どんな会議でもそうなのかも知れないけれど、僕たちのミーティングでは、ほとんど発言しない人がいる。
成績に関係するからたくさん発言してください、と言ってもその直後くらいに、申し訳程度に一度か二度発言するだけで、後はずっと黙っている。
講義じゃないんだから、黙って聞いていればよいというものではない。

僕はどうして発言をしないのかずっと考えていたのだけど、参加意欲を高めることを自発的にできない人が結構いるということがだんだんわかってきた。
これは必ずしも頭の良さとは関係がない。
おそらく、自らの力で意欲を高める方法を学んでいないのであろう。
その習得は、主に体験によってなされる。
だから、会議の参加者が何らかのやり方で参加意欲を高めていく実践を積み重ねていかないと、いつまでたってもよい議論ができないのである。

僕たちの作成している会議コンテンツは、ゼミでの発表や発言がすべてビデオに記録されているから、ゼミ直後から自分の発表や自分に対する質問や意見を詳細に振り返ることができる。
僕は、発表者に必ず自分の発表のビデオを見るように言っている。
しかし、自分の発表をまったく振り返ろうとしない学生がいる。
これも意欲の問題なのだと思う。
ゼミで誰か(主に僕)に厳しいことを言われて嫌になり、さらにそれをビデオで見返して再び嫌な気分になることを恐れているのだと思う。

やはり、これは僕が学生たちの心に訴えかける努力を怠っていたからであろう。

前編で触れたファシリテーションには、ミーティングを含む組織活動に積極的に参加する(つまり、自分の頭でよく考えて行動する)動機付けを与え、意識改革を促進させる、という目的もあるそうである。

最近読んだ「ザ・ファシリテーター」(森 時彦著、ダイヤモンド社、2004)という本によると、グループダイナミックスと呼ばれる、小集団の心理を扱う学問があり、以下のような仮説があるそうだ。

他人との関係において、ひとは自分の心身を守るために、ある程度防衛的な関係を築こうとする。
米国の心理学者ギブは、その背景には懸念(恐怖や不信頼感)があると仮定し、それを4つ(受容・データ流動・目標形成・社会的統制)に分類した。
「受容」とは、自分自身や他者をメンバーとして受け入れることができるかどうかにかかわる懸念。
「データ流動」とは、「こんなことを言ってもいいのだろうか?」と不安になるような懸念。
「目標形成」とは、グループ活動の目標が理解できないことに起因する不安感。
「社会的統制」とは、グループ内で依存願望が満たされない場合に発生する不安感。
この4つの懸念を解消していくことにより、グループは成長し、メンバーも成長していく好循環が生まれるというのがギブの提唱した理論である。

僕は、研究室に配属された学生たちから、このような不安感を取り除くための努力は特に行ってこなかった。
上記のような不安感があるとしても、それはただの甘えだと思っていて、僕の方から歩み寄ることもなく、突き放した態度をとっていた。
学生たちと馴れ合いの関係になりたくないという僕の気持ちが、当然のように彼らとの距離を作っていた。
僕のそういう態度は学生たちにはかなりのプレッシャーだっただろう。
そういうプレッシャーに打ち勝ってきた学生(それから、もともとそれほど不安感を持つことのない、どちらかというと脳天気な学生)はそれなりに積極的に議論に参加し、目覚ましく成長した。
ただ、その一方で、研究室の活動に意欲を持てないまま、休学や退学する学生もいた。
無論、僕はそういう学生たちに無関心であったわけではなく、むしろ気になって仕方がなかったのだけど、結果的に何もできず、ただ悔しい思いだけが積み重なっていった。
うまい会議をやる以前に、よい組織を作っていくという、もっと基本的なことで僕は間違っていたのだろう。

また、同じ本には、次のような記述があった。

じっくり考えて間違いのないことを言いたいと思ってしまう、そういう傾向が、特に知的レベルの高い日本人には多いですね。
日本人が世界のいろいろなコミュニティーの中でリーダーシップをとれないのは、そのためかも知れないと思うことがあります。
じっくり考えること自体は悪くありませんが、「外部化されたグループ思考プロセス」にも参加する力をつけてもらうと、思慮深い人の力が、もっと全体に活かされると思います。
深く考える前に発言していただく、そういうクセをつけてもらえるといいですね。

「外部化されたグループ思考プロセス」というのは、以下のようなことらしい。

「いい面や悪い面をすべて考えて、比較検討しよう」
「プロセスを洗い出して、どこにボトルネックがあるのか順番に見ていこう」
そのような枠組みを可視化して示すと、メンバーの意識もそこに集まって、それに沿って意見を出しやすくなります。
何のためにやっているか混乱しているなと思ったら、ツリー状に目的と手段を結んで構造を示すのがいいですね。
部分最適化が全体最適化に優先する議論を無意識にしてしまうことはよくありますよね。
そういうとき、このツリー構造を描きながら議論すると、全員で真の目的を共有することができます。
いったん目的が共有化されると、改めて視野を広げ、もっと有効な、いままで気づかなかったような解決策を考えられることもあります。
「論理を構造化して、可視化して、共有する」
可視化することで思考プロセスを個人の頭の外に出すことができます。
そうやって思考プロセスを外部化すれば、グループで知恵を合わせて考えることができます。

このような、論理的構造を動的に生成してコンパクトに表示することなどは、僕たちのツールでいろいろできそうである。

さらに、アイスブレーク、つまり会議参加者の気持ちを和らげるために会議前あるいは会議中に行うちょっとしたエクササイズあるいはゲームに関して、以下のような記述があった。

皆さんは、運動をする前に準備体操とか柔軟体操とかしますよね。
誰かが背中を押してくれることがあるかもしれませんが、自分で意識的に体の力を抜いて、ストレッチしないとなかなか効果が出ません。
他人任せでは、体の柔軟性も得にくいわけです。
心も同じで、虚心坦懐に人の話を聴く、議論の枠組みに沿って考えてみる、思いついたことを口に出してみるという、開かれた気持ちにするのがアイスブレークですから、アイスブレークの機会に自分の心を自ら開く努力が必要なのです。
体と同じで、心も硬くなりがちです。
硬い心は、他人の意見を軽視し、言葉尻だけを取り上げ、曲解しようとします。
そういう無意識的な拒絶反応が自分の心にはあることを意識して、心のアイスをブレークすると効果的です。

こういうものを読むと、メンバーそれぞれの心の問題というのは、組織の活動において考慮しないわけにはいかない本質的な問題なのだと思えてくる。


似たような話で、「会議、ひと工夫で活発に」と題する、最近の日経新聞の記事には以下のようなことが書いてあった。

2009年1月、サイバーエージェントでは、藤田晋社長の発案で会議室に座布団を運び入れることにした。
よい企画を提案した人に藤田社長が1枚授与。
つまらなかったら取り上げる。
遊び心を取り入れつつ緊張感を与えるのが狙いだ。
5枚以上集めれば社長のブログで紹介される。

発言者を指定するためボールを回す手法もある。
ボールを持った人が話し、その間ほかの人は聞きに回る。
回したり投げあったりすることで、場の盛り上げ効果もある。

(日本経済新聞 2009年3月14日朝刊より)

最初にこれを読んだときは、「何をやってんだ。この会社は」と思ってあきれていたのだけど、こんなちょっとした工夫で会議が盛り上がりアイディアが出やすくなるのならやってみる価値はあるのかも知れない(さすがに、座布団やボールを使うなんていうやり方は避けたいけれど)。

とにかく、僕は学生たちの心に訴えかけるようなファシリタティブな教師になろうと決心したのである。
その成果については、いつかこのブログに書いてみたいと思う。

投稿者 nagao : 01:46 | コメント (1) | トラックバック (0)

2009年03月26日

動画シーン引用とシーンプレイリスト

以前のエントリー「動画作文のすすめ」でも書きましたが、僕たちが運営している動画サイトSynvieでは、動画の一部を他のWebコンテンツ(主にブログ)内で引用する手段を提供しています。
ただし、引用できる動画はSynvieに投稿されている動画に限定されています。
これは、他の動画サイトのコンテンツが永続化される保証がないからです(無論、Synvieでも投稿者からの削除依頼があれば対応しますが、それ以外の理由でコンテンツを削除することはありません)。
オリジナルコンテンツがネット上に存在していないにも関わらず、それを引用したコンテンツのみアクセス可能である状態は好ましくありません。
そんなものは今でもいろいろある(たとえば、印刷物である本の引用など)じゃないか、と思われるかも知れませんが、それはネットのない時代にやむを得ず行われていたことをあいかわらずネット上でも行っているだけのことで、ネットならではのコンテンツのあり方としては理想的なものではないと思います。

やはり、引用によってオリジナルコンテンツの制作者の意図を歪めてしまうことはままあると思いますので、必ずオリジナルにたどりつけるようになっているのがよいでしょう。
また、ネット上のコンテンツならばブログのトラックバックのようにリンクを後から挿入することができますから、オリジナルコンテンツの方にも、それを引用しているコンテンツへのリンクを追加することができます。
無論、Synvieでは、動画内のどの部分が引用されているのか簡単にわかるようになっています。
そしてそのコンテンツへのリンクをたどれば、どのような文脈で引用されているのかすぐに確認できます。

さて、動画シーン引用の仕組みは一応できたのですが、それを使ってさらに面白いことができないかと思って、僕のいる研究室の学生が作っているものはシーンプレイリストというものです。
これは、引用されたシーンをつなげて連続的に視聴できるようにしたものです。
複数の動画のちょっとした面白いシーンを集めて、適当に順番を決め、それらしいタイトルをつけて、自分専用のあるいは他者と共有する新たな派生コンテンツとすることができます。

シーンのつなぎの部分の実装が不十分のため、切り替えに若干間があいてしまうのがよくないと思いますが、これから少しずつ改善していきたいと思います。
ご興味のある方は、ぜひ一度試してみていただけるとうれしいです。
プレイリストの作り方は以下の動画を参考にしてください。

これからSynvieの新しい機能であるビデオシーンプレイリストについてご説明します。

まず、トップページのタブ一覧から「プレイリスト」を選んでクリックします。

すると、上のようにプレイリストのトップ画面が表示されます。
これは、過去に登録ユーザーによって作成され、共有されたシーンプレイリストの一覧です。

そして、一覧の中からどれかを選んでクリックすると、プレイリストの閲覧画面になります。

左側にビデオとコメント(シーンに対してではなくプレイリストに対するもの)の画面、右側にシーン一覧とそのシーンを引用しているブログエントリーの情報が表示されます。

プレイリストのシーンはすべて以前に登録ユーザーによって引用されたことのあるシーンです。
つまり、プレイリストを作成する時点では、シーンを決定する作業は終了していなければなりません。
そのシーンの決定は、以下のビデオのような、以前にこのブログでご紹介した仕組み(ビデオシーン引用)で行われます。

シーン引用は、ビデオ視聴ページなどで「ブログを書く」ボタンをクリックして行います。
このときに設定したシーン区間が、プレイリストの要素になります。
ただし、シーンを決定するだけでなく、ブログに引用・公開しないと(自動生成されたHTMLをブログエントリーにコピペして公開する)プレイリストには使えません。

視聴中のプレイリストを編集、つまり、要素の順番を入れ替えたり、いくつかの要素を削除したりすることもできます。

上のビデオのように、シーン一覧の上にある「プレイリストを編集する」ボタンをクリックすると、編集モードになりマウス操作で簡単に編集できます。

上記の編集は一時的なもので、単に閲覧中にちょっとリストを変えたいときに行うようなものですが、何度も閲覧したいと思ったときは、保存しておくことができます。

これも簡単で、やはりシーン一覧の上にある「保存する」ボタンをクリックして、プレイリストのタイトルやタグやコメントを記入して「登録」ボタンを押せばOKです。
ここで、ユーザー登録してログインしているときは、「全体に公開」というチェックボックスが出ますので、他のユーザーと共有したいときはチェックした状態で、自分だけが見たいときはチェックを外した状態で登録してください。

さて、すでに共有してあるプレイリストを加工するのではなく、新しくプレイリストを作成したい場合は、ちょっとだけ面倒なことをやる必要があります。
まず、プレイリストのタブをもう一度クリックして、トップ画面に戻ります。

そして、上のビデオのように、「プレイリスト作成」というグレーのボタンをクリックします。
そうすると、新しいウィンドウが現われ、プレイリストを作成するためのいくつかのやり方を選ぶことができます。
デフォルトでは、ビデオシーン検索において、プレイリストに登録したシーン一覧が表示されます(これに関する説明は省略します)。

以下では、シーンプレイリストを作成する三つの手法についてまとめてご説明します。

一つ目は、ビデオを選ぶと、そのビデオの引用されているシーンをすべてリストにするやり方です。
二つ目は、(Synvieから自動的にトラックバックリンクが張られている)ブログエントリーを選ぶと、そのエントリー内で引用しているシーンをすべてリストにするやり方です。
三つ目は、シーン検索用のタグクラウドからタグを選ぶと、そのタグが関連付けられたシーンをすべてリストにするやり方です。
三つのやり方で共通しているのは、初期リストが生成された後に、その一覧とチェックボックスを使ってプレイリストに含めるシーンを決定する作業です(最初はすべてのシーンにチェックが入っています)。

投稿者 nagao : 09:09 | トラックバック (0)

2009年03月22日

会議革命、その後(前編)

僕のいる研究室でのミーティングではこれまでにさまざまな試みを行ってきているけれど、残念ながら議論の質を向上させるような革新的なものにはまだなっていない。
僕たちの努力の大部分は、会議内容を詳細に記録して、議論の検索や閲覧がやりやすくなるように、会議中にできるだけ多くのメタデータを付けて構造化し、コンテンツとして共有できるようにすることに費やされてきた。
しかし、たとえ、議論を(半自動的に)構造化コンテンツにするという試みがうまくいっていても、それだけで、よい議論ができるというものではない。
会議をコンテンツ化しても、それを役立たせる努力がなければあまり意味がない。

僕たちがこれまでに作ってきた仕組みは、会議後に繰り返しコンテンツを利用することでじわじわと効き目が出てくるもので、会議の運営そのものに直接的に効力を発揮するものではなかったのである。

実は、以前から気になっていたのだけど、ファシリテーション(facilitation)というビジネス用語がある。
これは会議を含むタスク指向のコミュニケーションを円滑に進め、問題解決や合意形成を促進するための技術や方法論のことである。
要するに、話し合いをうまく仕切り、議論を誘導し、参加者の意欲を向上させる調整役がやるべきことや必要なスキルをまとめたものである。

さらに、議論の流れや会議の雰囲気を可視化するグラフィックファシリテーションという手法もある(参考)。
このグラフィックファシリテーションを生業とするグラフィックファシリテータという専門家もいるらしい。
グラフィックファシリテータは会議を傍観しながら自分が感じたことを文字やイラストにして、壁に貼られた大きな紙に延々と描き続けていくらしい。
参加者はときどきその絵を見て、これまでの流れや今の状況を雰囲気を感じ取ったり、イラストを見てなごんだりしているらしい(いわゆるアイスブレイカーのようなものだろうか)。
また、会議終了直後にその絵を参加者全員で振り返って、グラフィックファシリテータがなぜそのような絵を描いたかを説明していくそうだ。

単なる文字の羅列より、ところどころにイラストがあった方がわかりやすい(ような気がする)し、巧みな色使いで会議の盛り上がり(発言者の熱意)が感じられたりする、というのはよくわかる。
また、会議の参加者の多くは、議事録はあまり読む気にならないが、グラフィックファシリテータの描いた絵は見て面白いし、記憶に残りやすい、という感想を持つらしい。
これはその通りなのかも知れないが、本当に議事録より絵の方が役に立つのだろうか。
文字ばかりの本より漫画の方が一般に読みやすいし、(マルチモーダルだから)記憶に残りやすいのは確かなのだと思うけれど、言葉として表現されたものを単純な絵にすることによって失われてしまう内容はかなりあると思う。

実際、該当する会議の参加者でない僕が、グラフィックファシリテータの描いた絵を見てもどうもピンとこない。
つまり、議論の深い内容がまったく伝わってこない。
その要因は、グラフィックファシリテータが必ずしも議論の専門的内容に精通していないため本質的な意味的内容を可視化できないことや、会議の参加者以外にはその会議の臨場感などの文脈が絵だけではあまり伝わらないため、描かれた絵と会議の文脈をうまく結び付けることができないためであろう。

いずれにしても、グラフィックファシリテーションは、議論を再利用するためのコンテンツ化というよりも、会議の運営そのものに効力を発揮する、ある意味、その場限りのツールなのだと思う(無論、会議の参加者にとってはそのときの記憶の想起を促すものにはなっていると思うが、長い時間の後に詳しい内容を思い出すことはおそらくできないだろう)。

僕たちのツールに欠けていたのは、まさに、この「会議の運営に直接的に効力を発揮する」機能である。
実は、そのような機能がまったく存在しなかったわけではなく、たとえば、参加者が直前の発言に同意しているかいないかをリアルタイムに表示する仕組みや、ある意見に賛成か反対かをその場で投票してすぐに結果を表示する機能などが実装されていた。
問題は、それらがほとんど使われておらず、通常の会議の運営にあまり貢献していないことである。

そのような機能が有効に活かされていない理由は、僕たちの会議にファシリテータがいないため、議論を鳥瞰し、それらの機能を使うべきタイミングを見極めて、使用を促すような人がいないためだろう。
ゼミでの発表者がファシリテータにもなれるとよいのだけど、説明と質問への回答で一杯一杯で議論の調整にまで注意を働かせる余裕がないのだろう。
あるいは議事録を作成している書記がそうなれるとよいのだけど、これも発言内容を要約したテキストのタイピングで一杯一杯のようである。
では、責任者である僕がやればよいのかも知れないが、議論の内容に集中しているので、やはりメタ的な調整は困難である。
それに、機能を使うべきか否かは学生たちに自分で判断して欲しいので、内容以外のことについてはできるだけ黙っていることにしている。

そもそも、ファシリテータなどいなくても参加者の自発的な努力でよい議論ができるようになるべきだろう。
意欲はあるけれどスキルが足りない人のためにテクノロジーが機能するべきである。

つまり、僕らが作るべきものは、誰にでもファシリテーションができるようになるための支援技術なのである。

それで、最近、僕のいる研究室の学生たちが作っていたものは、議論の構造の可視化(ある発言がその前のどの発言と関係しているかをグラフ化したもの)および自動的に作成されたそのグラフを発言者がリアルタイムに修正できる仕組みと、会議中に過去の議論の内容を振り返るための検索およびその発言のビデオ再生を行う仕組みである。

この議論の構造化は僕たちのオリジナルの技術である。
これはもともと、議論コンテンツを効率よく閲覧するために、議論のまとまり具合や要点を機械的に調べることを目的に考案・開発されたものである。
そのため、基本的には、コンテンツが作成・共有された後に初めて利用されるものであった。
しかし、もしこの構造化や可視化が会議中にも効果があるとしたら、ファシリテーションに使えるかも知れない。

会議中に以前の議論を振り返るための新しい仕組みは、会議の運営に直接的に貢献すると期待される。
これは、過去の議論を発表スライド、書記によって記録された各発言(発言者名と複数のキーワード)、ビデオ(および発言テキスト)を見て振り返るものであるが、特徴的なのは参加者全員で協調的に検索や選択を行うことである。

これは、一人の記憶だけを頼りにして、短い時間内に参照すべき内容を見つけ出すことが困難な場合に有効である。
ビデオを見れば誰が何を言ったのか明らかになるので、結論や背景が曖昧になってしまった状況を打開することができる。
しかし、過去の内容の確認ばかりに時間を使ってしまったら、とても創造的な会議はできないので、振り返りに使える時間はかなり限られている。

そこで、僕たちの考えた一つのやり方は、メインスクリーンに過去の発表のスライドサムネイルを複数表示して、参加者がポインタで指して適切なものを選び、そのスライドに関して行われた議論の構造を可視化して表示し、さらに、議論中の発言をビデオで視聴する、というやり方である。

僕たちのミーティングでは、メインのプロジェクタスクリーンとサブの大型ディスプレイを用いており、振り返りのフェーズでは、メインスクリーンに以下の図のような、ポインタで指しながらスライドや発言内容を思い出していくためのインタフェースが表示される。

dr_main.png

また、サブディスプレイの一部には以下の図のような、メインスクリーンで選択した発言を再現するビデオと書記が入力したテキスト情報が表示される。

dr_sub.png

この仕組みによって、過去のスライドや発言をざっと見聞きすることで、これまでの話の流れを思い出して、過去を踏まえた、よい議論をしようということである。
過去の発言が現在の議論の直接的なきっかけになっていることが確認できたら、複数の議論が自動的にリンクされるため、後で、結論に至ったプロセスを詳細に調べたいときに有効であろう。
しかし、これだけではまだ足りない。
過去を確認できる仕組みは、参加者の議論スキルを直接的に向上させることには貢献しないからである。

よって僕たちの会議革命はさらに続くのである。

投稿者 nagao : 22:36 | トラックバック (0)

2009年03月18日

知能メカトロニクスへの接近

前回のエントリーで触れた情報処理学会全国大会で、パートナーロボット(日常生活において人間の支援をするロボット)に関する特別セッションが行われ、その中でメカエレキソフトという奇妙なキーワードが使われていた。
また、機械工学の分野では「ITとRTの融合」というスローガンが掲げられていて、今月の24日に神戸大学でシンポジウムが行われるらしい。
ここで、RTとはRobotic Technologyつまりロボット技術のことである。

要するに、情報系の研究者も機械系の研究者も共に、情報技術(特に、人工知能)と電子制御機械技術(主に、ロボット)を統合的に発展させる必要があると考えている、ということだろう。

これには僕もまったく同感である。
ただ、僕が期待しているのは、ロボティクスではなくメカトロニクス一般である。

メカトロニクスとはメカニクスとエレクトロニクスの合成語である。
つまり、機械系と電子系を統合するシステム(つまり、電子制御の機械)のことである。
これは、現在、実際に世の中で稼働している機械のほとんどを指している。

そして、知能メカトロニクスは、電子制御の機械を知能化する(情報技術によってより知的にする)技術である。
物理的な機械を知能化する典型的な例は、ヒューマノイドに代表される知能ロボットであるが、単純に、知能メカトロニクス=知能ロボティクスだと認識されると、視野を狭くする恐れがある。
たとえば、自動ドアやエアコンの風を人のいるところに向けるシステムをロボットだと認識する人は少ないと思うが、これらは情報技術と電子制御機械技術が統合されて初めて実現する(あるいは実現が容易になる)ものである。
さらに、自動ドアとエアコンを連動させると、それぞれをより高度にすることができる。

機械の知能化は、当然ながら実世界のセンシング(知覚)の高度化とネットワーク化を含むので、複数の機械が実世界の認識と通信機能を持つことで初めて可能になるアプリケーションが考えられる。
知能メカトロニクスの典型例は、分散化されたセンサーシステムにアクチュエータ(駆動系。アームロボットのような複雑なものでも、車輪のような単純なものでもよい)を統合したものである。

人工知能の目標を、高度に自律的な知能(および身体)の実現とすることはわかりやすいけれど、僕が考える人工知能のより重要な目標は、人間そのものを強化(あるいは進化)させる効果的な手段を実現することである。
そのためには、人間をシステムの中心に置き、人間を取り囲む環境をより知的で高度にすることを考えるべきだろう。

僕が考える知能メカトロニクスとは、ユーザーを中心とした、物理的・情報的環境を拡張・強化あるいは知能化するための技術およびその研究領域である。

そして、このブログでは何度も取り上げているが、知能メカトロニクスを具体化するために、僕たちは、ネットワーク化された個人用の知的な乗り物を研究開発している。

移動体を知能化すること自体は、かなり以前から行われており、実用化も進められている。
たとえば、自動車向けに開発されているプリクラッシュセーフティシステムである。
これは、道路走行中に前方の車両に衝突しないように自動的にブレーキをかけたり、衝突時の人間にかかる衝撃を弱められるように自動的にシート(主にヘッドレスト)を調節するものである。
このようなシステムの延長線上に、すべての移動体を自動走行させてネットワークで情報を管理し、事故を未然に防ぐシステムが考えられる。

ネットワーク化され情報共有が可能な乗り物を、個人の行動支援のレベルまでブレイクダウンして、人間の身体と知能を拡張するシステムとして乗り物を再考したのが、僕たちの研究している個人用知的移動体(ATと呼ばれている)である。
ATは、現在まで、目的地への自動走行、人間を含む障害物回避、対象物の認識とそれへの誘導、人間の自動追尾、複数台の連携走行と衝突回避、などを可能にしてきた。
もちろん、環境側にもいくつかの仕掛けが必要であるが、ATが今できることが何なのかだいぶわかってきた。
やはり、ソフトウェアだけでなくメカやデバイスを一緒に考えると、発想がかなり広がっていくことを実感できた。
しかし、人間の感覚・思考や運動の柔軟さにはまだまだ遠く及ばないので、人間の知能と身体の拡張のためには多くの研究が必要だろう。
とても面白いテーマだし、メカやデバイスに詳しくなくても手探りで何とかやっていける研究なので、できれば多くの人に興味を持ってもらいたいと思っている。


ところで、最近、つくづく日本人の発想力はすごいなあと思ったのは、「ライドバック」というアニメを偶然見たときである(どうやら、これは名古屋では放映されていないらしい)。
これは、バイクを搭乗型ロボットに進化させた乗り物(その名前がライドバック)が主要な舞台装置となっている物語である。

ライドバックには2本の腕が付いていて、2個の車輪を支えるフレームが足のように動かせるようになっている。
そのため、何かをつかんだり、ジャンプしたりできる。
バイクがロボットに変形するシステムは、かなり以前からアニメや特撮番組の世界ではいろいろあったけれど、ロボットに変形するのではなく初めからそういう乗り物(ただし、フレームが可変なので形態は変化する)にして、日常生活にほぼ定着している設定にしたところがとても面白い(ちなみに、劇中の年代は2020年だそうである)。

実は、僕もATに腕をつけたり、ジャンプできるようにサスペンションを工夫することをずっと考えていた。
さすがにライドバックのような乗り物は兵器としても使える(劇中では画期的な戦術兵器として扱われている)ため、実際に開発すべきだとは思わないけれど、乗り物が搭乗者をさまざまな危険から守るために、何かにつかまったり飛び上がったりする仕組みを持つのはとても有効だと思う。


そんなわけで、僕が最近ずっと考えている、人工知能研究の新しいステップとしての知能メカトロニクスについて、ATに関する研究活動を例に挙げて、詳しくお話しようと思っています(ただし、ライドバックについては触れません)。
ご興味のある方は、以下の研究会に奮ってご参加ください。

情報処理学会 第155回知能と複雑系研究会

2009年3月20日-21日
会場:公立はこだて未来大学 593教室
会場へのアクセスは
http://www.fun.ac.jp/acces/index.html
を参照してください。

テーマ「人工知能がこれから目指すべきもの」

3月20日
10:00 - 11:00
中島秀之(公立はこだて未来大学)
知能への進化論的アプローチ
11:00 - 12:00
片桐恭弘(公立はこだて未来大学)
文化の計算理論を求めて

14:00 - 15:00
小野哲雄(公立はこだて未来大学)
HAIによる環境知能の実現へ向けて
15:00 - 16:00
橋田浩一(産業技術総合研究所)
知識循環と持続可能なサービスの設計

3月21日
10:00 - 11:00
大沢英一(公立はこだて未来大学)
複雑ネットワークからの構造情報抽出
11:00 - 12:00
長尾 確(名古屋大学)
知能メカトロニクスへの接近 - 個人用知的移動体を例にして -

14:00 - 16:00
パネルディスカッション(パネリストは講演者全員)

これらの講演やディスカッションはビデオ撮影をして、後日ネットで公開する予定です。
そのときは、このブログでもご紹介します。

投稿者 nagao : 00:50 | トラックバック (0)

2009年03月14日

ビデオアノテーション研究には未来があるか

つい先日、情報処理学会第71回全国大会という研究集会が滋賀県の琵琶湖の近く(といっても琵琶湖は見れなかった)の立命館大学で開催された。
僕のいる研究室からは、ほぼ全員がそれに参加して研究発表を行った(僕も一応、発表登録をしたが、学生の発表と時間が重なってしまったのでキャンセルした)。

その中で「マルチメディアとメタデータ」という僕たちの研究テーマとよくマッチするセッションがあり、僕のいる研究室の学生の一人がそこで発表した。
これまでに作ってきたシステムのデモをいろいろ見せながら、実験結果も報告して、なかなかよい発表ができたと思っている。
僕はこのシステムの設計にはずいぶん知恵を絞ったので、かなりの思い入れがある。
この学生もよくがんばったし、僕の期待にも応えてくれた(正直、大学に来てから今までで、最も指導のし甲斐があった学生である)。

しかし、そのセッションの座長の評価はさんざんであった(優秀な発表を表彰する賞に関して「該当者なし」という判断がなされた。これは僕たちの研究発表が特にダメという評価ではないが、すべての発表がダメという評価なので、いずれにせよ、高い評価ではなかった。ちなみに、座長がこのような判断を下したセッションは110件中たったの3件だったそうである。まったく関係がないが、「スター誕生」という往年の人気番組の萩本欽一のせりふ「バンザイ。。。なしよ」というのを彷彿とさせる)。
何がどう悪いのかまったく説明がなかったので、いったいどういう方向にこの研究を導いていけばいいのか迷いが生じてきた(本人に直接、何が問題なのか問い合わせればよい、という意見もあるだろうけど、「(賞の)該当者なし」とだけ言い切ってその場を立ち去った人間に何を聞いてもまともな答えは返ってこないような気がする)。

僕たちが取り組んでいる「ビデオアノテーション研究」すなわちビデオに対するコメントやタグなどのメタ情報を収集し、ビデオの意味的な内容を解析して、さまざまなアプリケーションを実現する研究は、今後、大きな発展の余地があるのだろうか。

最近、YouTubeもビデオアノテーションの仕組みを取り入れ、ビデオの投稿者が許可するユーザーが、ビデオ内の任意の時間の画像の任意の部分に吹き出し風のコメントを付けたり、他のコンテンツへのリンクを付けたりできるようになっている。
ニコニコ動画よりまともなコメントが付くようになれば、いろいろと利用価値もあるだろう。

ちなみに、上記のセッションでは、ニコニコ動画のコメントから意味のある情報が抽出できるかどうかを試みた研究発表もあったが、結果はあまり有意義なものではなかったようである。
まあ、これは研究対象がダメすぎたのかも知れないけれど。

僕たちが研究しているビデオシーン引用もこれからさらに面白くなっていく予感はするのだけど、今のところ、あまりよい反応はない。

ビデオアノテーションに関しては、明らかに、僕たちの研究が先行していたと思っている(僕がビデオアノテーションの研究を始めたのは1998年のことである)が、もうほとんど「時代に追い付かれてしまった」という気がしている。
だから、再び引き離すには一体何をすればいいのか、また、僕たちにこれから何ができるのか、苦しみながら必死に考えているところだったのである。
そんな状況で上記のような評価をもらったのでショックが大きかった。

確かに、現時点で、ビデオアノテーションによってできることはあまり多くはないだろうし、驚くような結果(たとえば、任意のキーワードにぴったりマッチするビデオシーンが検索される、など)が出ているわけでもない。
しかし、ビデオ(のシーン)を主要な素材としてネットならではのコンテンツを作っていくためには、どうしてもこの研究が必要だと思っている。
だから僕は、この研究には未来があると信じている。

投稿者 nagao : 02:17 | コメント (4) | トラックバック (0)

2009年02月28日

フォーカル・ポインタ

複数の人間が、自然に同じところに注目するような点をフォーカル・ポイント(focal point)と呼ぶ(注視点(focus of attention)とも呼ばれる)。

たとえば、川で隔てられた2つの街があって、その川には一本の橋がかかっているとする。
その地図を複数人に渡して、「もし突然、2つの街のどちらかにいることがわかっている複数の友人と待ち合わせをすることになったとしたら、どこで待ち合わせをしますか?」という質問をすると、大部分の人は橋の両端のどちらかの場所を示すらしい。
それは、2つの街のどちらにいるかわからないから、結局行き来しなければならなくなると思うので、それなら橋のどこかで待っているのが妥当だし、橋の中のどこかよりは特徴のあるところで待つのがよい、ということらしい。
機能的な側面と視覚的な側面の両方を考慮しているようだ。
このような場所は地図上のフォーカル・ポイントとなりうる。
ちなみに、この問題に関しては、今はみんなケータイを持っているのだから、連絡を取り合って適切な場所で待ち合わせをすればいい、という意見もあるだろうけど(僕はケータイを持っていないのでこのやり方だと仲間外れになってしまう)。

僕は、このフォーカル・ポイントの性質を会議でのプレゼンテーション(およびその後の検索)に応用できないものかと考えている。
つまり、スクリーンに投影している資料の中で多くの人が注目する(してしまう)点を見つけて、その点に関するトピックを集中的に議論すると、効果が上がるのではないかということである。
視線認識でもやらないと誰がどこを注目しているかわからないのではないかと思われるかも知れないが、僕たちのミーティングでは参加者全員がポインタ(つまりWiiリモコン)を持っているので、要所要所でポインタを使って自分の注目しているところを示す、という手がある。

そして、複数人の視点が集まっていることをわかりやすくする仕組みとして考えたのが、合体ポインタである。
他の参加者の注目しているところに自分も注目していることを示すために、ポインタを合体させて、より目立つポインタに変化させる(少し派手な色になるとか、サイズが大きくなるなど)のである。
ポインタを合体させる操作は、ポインタを重ねてボタンを押すだけである。
ポインタを分離させるときは、もう一度ボタンを押せばよい。

合体に参加しているポインタが多いほど、アピール度はより高くなっていく。
ポインタの数が参加者の半数を超えた場合に、合体ポインタの指す場所は、フォーカル・ポイントとして記録される。
会議後に、ファーカル・ポイントの存在しない資料は重要ではないとして、会議資料のエッセンスが自動抽出される。

ファーカル・ポイントを示しているポインタをフォーカル・ポインタと呼ぶ。
フォーカル・ポインタとなった合体ポインタは、合体に参加しているすべてのポインタの移動ベクトルの平均値によって位置が決まる。
つまり、合体ポインタの参加者全員が異なる方向に動かそうとするとポインタはほとんど動かない。
そのストレスから、合体を解除して、他の場所を指すものが続出して、その結果、最初とは異なる場所にフォーカル・ポインタを形成することもある。


このようにファーカル・ポイントは機械的に決まるのではなく、複数参加者の自発的行為から発現する一種の集合知によって決まるのである。

このフォーカル・ポイントが本当に議論の効率化に貢献するのかどうかは、まだわからないが、フォーカル・ポイントが見い出せないようなプレゼンテーション資料はやはりどこかがまずいのではないか、という気がする。
高橋メソッドだか何だか知らないけれど、やたらと字を大きくしてスライドの枚数を稼ぎ、インパクトを求めるあまり、きわめて断片的で文脈を捨象した情報しか表示しないやり方は僕は嫌いだけれど、書いてあることがバラバラでどこに注目したらよいのかよくわからないようなスライドもやはりダメだと思う。

一つのスライドに必ず一つのフォーカル・ポイントがあり、そこにはそのスライドで最も重要なことが書かれている、というのが理想である。
無論、その重要なことを補足する情報が、フォーカル・ポイントの周辺にできるだけ簡潔に書かれているのがよいだろう。

フォーカル・ポイントをうまく誘発できる方法がわかったら、きっと効果的なプレゼンテーションスライドの作成法や、そのスライドを使った効果的なプレゼンテーション法がわかってくるだろう。
その辺のことが明確になったら、いわゆるハウツー本でも書いてみようか。


ところで、複数ユーザーがWiiリモコンをポインタデバイスとして使えるようにする仕組みは、もともと僕のいる研究室の学生が作ったものだけど、かなりやっつけで作ってあってわかりにくいので、ソースコードを書き直して公開しようかと思っている。
ただ、これに関して引っかかるのは、プログラムを公開することで任天堂に不利益にならないか、ということである。

Wiiリモコンのリバースエンジニアリングに関するサイトはいろいろあって、僕たちも参考にしているのだけど、WiiリモコンをPCで使えるようにすることは任天堂のビジネスを拡大させることにはならないと思われる(人づてに聞いたところ、Wiiリモコンだけが売れてもあまりうれしくないらしい。まあ、当然だけど)ので、下手に煽って任天堂を怒らせ、Wiiリモコンの仕様が大きく変更されたら面倒なことになるなあ、と思っている(たいていの場合、企業がこういうことをすると、ハックするユーザーとの間でいたちごっこになる。最近このようないたちごっこが起こった例として、AppleのiPhoneに関して、App Store以外からダウンロードしたソフトウェアを実行できないようにするロック機能をユーザー側で解除するJailbreakがある)。

画期的なミーティング支援システムを僕たちが開発して、それを任天堂のライセンス付きで市販することができたら(無論、大学の研究室が直接、製品を販売することはできないけれど)、IT関連技術(ゲームではなくビジネスソフトウェア)を何でもかんでもアメリカから輸入する状況を少しぐらい変えられるのではないかと思っている。

投稿者 nagao : 11:46 | トラックバック (0)

2009年02月24日

オムニムーバー、人をよける

最近、僕のいる研究室で研究開発している、全方位レンジセンサーを装備し全方位移動が可能な個人用知的移動体(オムニムーバー)による、複数の人間との接触・衝突回避を実現しましたので、ビデオを引用してご紹介します。

オムニムーバーは屋内では、地図を参照しながら、壁沿い走行を行って、目的地まで自動的に移動することができますが、移動の途中で、歩いている人間と遭遇したときにぶつかってしまうことがありました。
これではとても安全な乗り物とは言えませんので、歩いている人間が周囲にいてもぶつからないように動く仕組みを考えていました。

赤外線レーザーを使って、レーザーが届く範囲に存在する物体との距離を計測するレーザーレンジセンサーによって、移動体周辺の物体の位置(正確には物体とセンサーとの距離)を知ることができますが、自分自身が動いているので、周囲の物体との相対的な位置関係が変化します。
問題は、その位置の変化が予測できるかということです。
予測が当たれば、その物体とぶつからないように動くことはそれほど困難ではありません。
オムニムーバーは人間と同じように、どの方位にも旋回せずに動けますから、よけるために向きを変える必要はありませんので、比較的短い時間で回避行動をとることができます。

近くにある物体が壁や柱などの地図に載っているものなら、目的地までの経路を決めるときに、あらかじめ考慮しておくことができますが、一時的に荷物が置かれたときなど、地図に載っていないものが経路上に存在することがわかったときは、自分から見てどの方向のどのあたりにその荷物が存在するかを計算しながら動的に進路を変更する必要があります。
そのために、前述のレンジセンサーが役に立つわけですが、物体が動かないなら、問題はそれほどむずかしくはありません。
自分が止まるか、後ろに下がるかすれば、絶対にその物体にぶつかることはないからです。

しかし、物体が動いている場合は、問題は格段にむずかしくなります。
そもそも、自分より速く動く物体が接近してきた場合は、その進行方向が事前に予測でき、直前に変化しない場合を除いて、それをよけることは原理的に不可能です(ちょっと物騒ですが、プロペラの飛行機に、自動追尾機能を持ったミサイルが接近している状況を想像していただけるとわかると思います)。

オムニムーバーが人間より速く動ける乗り物であるという想定(実際は、電源の関係で、人間の早足(秒速約2メートル)より遅いです)で、人間の移動速度と方向(これを移動ベクトルといいます)を動的に予測して、その邪魔にならないように進路を変えるか停止する仕組みを実現しました。

以下の図は、レンジセンサーで得られた移動体(中央の青い長方形)を中心とした環境情報です。
緑色の点や線が動かない障害物をピンク色の線の集合が動く障害物(の移動ベクトル)を表しています。
また移動体の周囲の色の付いた部分は移動可能領域を、青い線は目的地に近付くための最適な移動方向を示しています。

at9-rangesensor.jpg

レンジセンサーの赤外線レーザーは物体を透過できませんので、壁などがあるとその向こう側の状態がわからなくなります。
そのため、交差点などで出合いがしらに人間とぶつかってしまうことを避けるために、環境側にもセンサーを設置しています。
これについては、また別の機会にご説明します。
ちなみに、移動体同士の場合は、事前に、通信によって現在位置と進路を相手に伝達していますから、衝突を回避することは比較的容易です。
安全で効率的な自動トランスポーテーション(人や荷物を目的地に自動的に運ぶ技術)のために、さらなる研究を進めていきたいと思います。

では、これからオムニムーバーこと個人用知的移動体AT9号機の自動走行と障害物回避のデモビデオをご紹介します。
このビデオでは、移動体に人が乗っています(乗り物なので当然ですね)が、操縦はコンピュータが行っています。
また、ビデオの中では表現されていませんが、自動走行のために、建物内の地図を移動体が自動的に取得して、搭乗者が目的地を自由に設定できるようになっています。

AT9号機の屋内自動走行は、基本的に壁を手がかりにして行います。

そして、角を曲がるときは、できるだけ壁から離れないようにします。
最初に曲がる方向を向いてから横に動き、正面の空間が広がったら前進します。

走行中に人間が近づいてくることがわかったときは、その移動の邪魔にならないように動きます。

この場合は、ほぼ真横によけて人間の進路から外れます。

障害物が動かないことがわかったら、あまり大袈裟によけずに、近くまで寄ってから最短の経路でよけます。

静止物だと思って近づいたら、至近距離でいきなり動き出した場合は一般によけられませんが、人間や他の移動体であることが他の手段(人感センサーや通信)によってわかれば、突然動き始めることが予測されますから、やはり、あまり近づかないようにします。
周囲に障害物(と思われるもの)が見つからなくなったときは、再び壁に近づいてから、壁沿い走行を継続します。
壁には、ランドマークとなるRFIDタグが設置されていて、ATが現在位置を認識し、走行経路を確認するために利用されます。
一般に、壁沿い走行の方が速く動けるようになっていますので、あたりまえのことですが、障害物がないときの方が目的地に早く到着します。

次は、左折ですが、右に曲がったときと同様に曲がる方向をあらかじめ向いてから右方向に走ります。

僕は、この動き方は、進行方向が変わることを、搭乗者にわかりやすく知らせるための方法の一つとしても有効だと思っています。
ちなみに、搭乗者は、いつでも自動走行をキャンセルして降車できるようになっています。

比較的広い空間に出ましたので、この場合ATは、必ずしも壁沿いではなく、目的地まで直線的に動こうとします。
あたりまえですが、空間が広いと障害物回避がより容易になります。

このとき、やはり人間が近づいてくることがわかったら、その移動ベクトルを予測して、人間の進路と重ならず、かつ、目的地にできるだけ近づけるように移動します。

このシーンのようにきびきびと動けるとよいですが、実際はこの3分の2程度の速度で動いています。

それにしても、このビデオはATが自動的に動いていることがわかりにくいですね。

投稿者 nagao : 00:02 | トラックバック (0)