« 2008年02月 | メイン | 2008年07月 »

2008年04月15日

オムニムーバーによる自動トランスポーテーション

最近、アメリカのセグウェイ社が全方位移動ができる小型の乗り物を開発したという話を読んで、やはりそうきたか、と思いました。
全方位移動は地上を走る乗り物の自由度を大きく変える仕組みだからです。
セグウェイの全方位移動マシンは、さすがにお金がかかっていて、ネットで見たところ、僕たちが開発したATより小型で動きがスムーズです(しかし、重さが181kgというのはちょっと重すぎる気がします。これはきっと積載可能重量のことですね)。
だけど、人を乗せて安全に移動するためには、ある程度の大きさが必要だから、いろいろ組み込んでいくうちに、僕たちのAT9号機とあまり変わらない大きさになるのではないかと思います。

以下で紹介するビデオは、以前のエントリーでも紹介したAT9号機(通称、オムニムーバー)による自動トランスポーテーションのデモです。
ATというのは僕たちが研究・開発している個人用知的移動体の名前で、常にネットワークにつながっていて他の移動体と情報を共有していること、個人認証によって搭乗者の特性や技量に適応すること、などの特徴があります。
また、自動トランスポーテーションというのは、人を行きたい場所に自動的に運んでくれる仕組みのことですが、無人自律走行と異なる点は、搭乗者の快適さと安全性を十分に考慮すること(たとえば、搭乗者が不快になるような加速・減速をしない、など)と、ナビゲーションシステムと同様に移動の任意の時点で搭乗者が必要とする情報を提供することです。
今回は、総合病院や大型ショッピングセンターのような大規模で複雑な建物内で、人を目的地まで移動させる場合を想定しています。
そのため、建物の入口で屋内の地図を自動的に取得して搭乗者に提示し、目的地を決めてもらい、壁に設置されたRFID (Radio Frequency Identification)タグを使って現在位置を確認しながら、目的地に向かう、という手法を採用しています。
もちろん、全方位移動の機能を有効に活かして、安全に角を曲がったり、人を避けたりしています。
今後は、屋外も同様に自動的に移動できるようにしようと思っています。

オムニムーバーことAT9号機による自動トランスポーテーションのデモです。
これは、建物内で目的地を設定すると、自動的にその場所に連れて行ってくれるというものです。
以下のサムネイルをクリックするとビデオ共有サイトに移動します。
該当するシーンが終わると一時停止しますので、続きを見たい場合は、一時停止を解除してください。

個人用知的移動体ATによる屋内自動トランスポーテーション : 00:04 - 00:30 個人用知的移動体ATによる屋内自動トランスポーテーション : 00:04 - 00:30
ATのコンソールはタッチパネルになっていて、簡単なやり方で目的地を設定できます。

個人用知的移動体ATによる屋内自動トランスポーテーション : 00:30 - 01:00 個人用知的移動体ATによる屋内自動トランスポーテーション : 00:30 - 01:00
なぜか、エレベータから出てくるところから始まりますが、ATは施設を管理するサーバーと通信する機能を持っていますから、エレベータの状況を調べたり、呼んだりできるようになるはずです。
また、壁に接近すると自動的にその場回転して進行方向を変えます。

個人用知的移動体ATによる屋内自動トランスポーテーション : 01:00 - 01:14 個人用知的移動体ATによる屋内自動トランスポーテーション : 01:00 - 01:14
前から人が来ると、真横に避けます。
もちろん、真横に避けられないときは停止します。

個人用知的移動体ATによる屋内自動トランスポーテーション : 01:16 - 01:36 個人用知的移動体ATによる屋内自動トランスポーテーション : 01:16 - 01:36
このATは角の曲がり方に特徴があります。
角が近くなると、曲がる方向をあらかじめ向いてから横方向に移動し、前方に空間が広がったときに前進します。
これには、角を曲がるときにできるだけ壁から離れないように進めることと、進行方向が変化することを事前に搭乗者に知らせるという効果があります。

個人用知的移動体ATによる屋内自動トランスポーテーション : 01:36 - 02:01 個人用知的移動体ATによる屋内自動トランスポーテーション : 01:36 - 02:01
目的地に到着したことは、入口付近にあるRFIDタグによってわかります。
そして、その場所に関連した情報をサーバーから自動的に取得して提示します。

投稿者 nagao : 01:12 | トラックバック

2008年04月13日

カジュアルな会議を支援する

ご無沙汰しています。
新学期が始まり、僕のいる研究室も7年目に入りました。
相変わらず悩みは尽きないですが、これからもがんばろうと思います。


先月、情報処理学会という、IT業界では老舗の学会の全国大会(会員なら誰でも発表する機会が与えられる会議)が開催された。
僕のいる研究室のほぼ全員がそこで研究発表を行った。
これは僕たちの毎年の恒例行事である。
この会議では、学生の発表するセッションとそれ以外の人の発表するセッションが明確に分かれていて、学生セッションと一般セッションと呼ばれている。
学生セッションの特徴は、10件程度の発表がある各セッションで最も優秀な発表に、学生奨励賞と呼ばれる賞が与えられることである。
この賞は基本的にセッションの座長によって決められる。
そのため、僕が見ていてあまり適切とは思えないものが選ばれることもあるが、たいていの座長は観客が納得できる理由で納得できるものを選出している。

今回、僕のいる研究室の学生の発表で唯一この賞を受賞したのは、「カジュアルな会議を支援する」ことに関する研究発表である。
他の学生の発表もなかなか良かったと思うのだけど、セッションのテーマと微妙に合っていなかったり、座長が研究内容とあまり関係ない基準(発表者の元気の良さ、など)で受賞者を決めていたりしていたために残念ながら外れてしまった。
それにしても、せっかく事前にアブストラクトを提出しているのだから、もう少し発表内容をよく考えてセッション構成や座長を決めてもらいたいと思うのだけど、会議の規模が大きすぎて無理なのだろうか。

さて、「カジュアルな会議」というのは、特に事前の準備をしなくても、議論したい相手が近くにいていつでも始められるときに、気軽に行うことのできる会議のことである。
このような会議で有益なツールはホワイトボードである。
だから、僕たちの考える「カジュアルな会議」ではホワイトボードを利用することを前提としている。
また、僕たちが取り組むべき課題と考えたのは、すごくいい意見やアイディアが出たはずなのに、しばらくすると忘れてしまうことへの対処法である。
たまに、ホワイトボードに書いた内容が消されずに残っていたりして、記憶の想起に役立つこともあるが、誰がどんな話をしながらそれを書いたのか、そのときに他の人が何を言ったか、などを同時に思い出すのはなかなか困難であろう。

そこで、例によって、ホワイトボードを使った会議風景をビデオに撮ることにした。
しかし、たとえビデオに撮ったとしても、必要な部分だけを見直せるようにするのは困難である。
また、ホワイトボードを電子的に記録して保存するやり方はいろいろあるが、多くの場合、時間情報が失われてしまい、書いた図と書きながら話していた内容をリンクさせる方法がない。

僕たちのやり方は、ホワイトボードでペンを使ったときのストロークごとの座標および時間情報と、ビデオ情報を組み合わせて、簡単なやり方で話の内容を思い出せるようにするものである。
そのために、会議内容の要点に印を付ける仕組みを作り、会議の直後に内容を整理する時間を設けた。
会議後に要点に印を付けていく作業を振り返り(リフレクション)と呼んでいる。
僕たちの作ったシステムは、この振り返りを楽にできるような機能を持っている。

このシステムの画面は以下の図のようになっている。

cm_gui

中央のメインウインドウには、mimioというデバイスを使ってPCに入力されたホワイトボードの状態が表示されている。
また、同じウィンドウの左側には、会議のタイムラインが表示されており、ペンを使っている時間がハイライトされている。
さらに、タイムライン上をマウスでクリックして、その時間に対して印を付けることができる。
この印(マークと呼ばれる)には、キーボードで入力したテキストと関連付けられる。
このテキスト(その入力は会議中に行っても会議後に行ってもよい)は、キーワード検索に利用される。
マーキングとテキスト入力は、ホワイトボード上の任意のストローク(の集合)に対しても行うことができる。

また、議論の切れ目(ホワイトボードの内容をすべて消した、一定以上の長さの無言時間が経過した、などの特徴のある時点)に、それまでの話題の簡単なタイトルを付けて、トピックとして登録することができる。
これは、一回の会議中に複数の話題について議論したときに、それぞれの話題ごとに整理したい場合に有効である。

このシステムの特徴は、ホワイトボード上のストロークやタイムライン上のマーキングなどがすべてビデオへのアノテーションになっている点である。
タイムライン上をマウスクリックすると、その時にホワイトボードに書かれたストロークがハイライトされ、その時間のビデオが表示される。
ビデオの再生を始めると、それと同期して、ホワイトボードウィンドウの内容が変化する。
同様に、ストロークやマークを選択してビデオを視聴することもできる。

このシステムを使って会議の内容を思い出そうとするときは、まず以下の図の下の方にあるテキスト入力フィールドに適当なキーワードを入力して、マッチしたマークからホワイトボードの記録やビデオを見ることになる。

cm_search

あるいは、この図の左に示されるようなタイムライン上に一覧表示されるマークを順番にクリックして、関連付けられたテキスト、ストローク、ビデオを見ていくことで、効率よく会議の内容を思い出せるだろう。

僕たちが次にやりたいと思っていることは、このシステムを使ってカジュアルな会議のログを収集して、グループの知識活動に有効に活用することである。
雑談の延長のような会議で出たアイディアはたいていすぐ忘れてしまうし、同じような図を書いて同じような議論をすることは結構ありそうなことなので、過去ログから図やアイディアを検索して、引用したり改良したりして、以降の活動に役立てることができるだろう。

世界中のカジュアルな会議がネット上で永続化され、誰かが思い付いたけど発展させられなかったアイディアを、時間を越えて、他の誰かが続きを考えて具体化・実用化する、なんてことが頻繁に起こるような時代が来るとよいと思う。
僕のいる研究室では、前回のエントリーで書いたように、ゼミでのディスカッションをコンテンツ化して公開しているが、たいていの場合、その内容は後に発展され論文としても発表しているので、アイディアが埋もれてしまうことは少ないが、プロジェクト単位で行っている小規模のミーティングでは思い付いて議論しても結局実現されなかったアイディアが非常に多い。
やろうと思っていて単に忘れてしまっただけなら、上記のシステムを使って思い出せばいいが、思い出せるのにやろうと思わないのならば、そのアイディアは無駄になってしまう。
だから、無駄になってしまうくらいなら誰かに譲ってしまおうと考えてもおかしくはないだろう。
それに、きっとそのころには、知的財産権に関する考え方も今とは変わっているだろう。

こんなこと考えたんだけど、この後どうしたらいい?、と未来の誰かに問いかけるのである。
それに対する返事を聞くことはできないかも知れないけれど、未来に向ってアイディアを発信することで、たとえそれが未完成のものであっても、自分の考えが未来の誰かの発想に影響を与えることができるのである。

投稿者 nagao : 13:43 | トラックバック