« 2008年11月 | メイン | 2009年03月 »

2009年02月28日

フォーカル・ポインタ

複数の人間が、自然に同じところに注目するような点をフォーカル・ポイント(focal point)と呼ぶ(注視点(focus of attention)とも呼ばれる)。

たとえば、川で隔てられた2つの街があって、その川には一本の橋がかかっているとする。
その地図を複数人に渡して、「もし突然、2つの街のどちらかにいることがわかっている複数の友人と待ち合わせをすることになったとしたら、どこで待ち合わせをしますか?」という質問をすると、大部分の人は橋の両端のどちらかの場所を示すらしい。
それは、2つの街のどちらにいるかわからないから、結局行き来しなければならなくなると思うので、それなら橋のどこかで待っているのが妥当だし、橋の中のどこかよりは特徴のあるところで待つのがよい、ということらしい。
機能的な側面と視覚的な側面の両方を考慮しているようだ。
このような場所は地図上のフォーカル・ポイントとなりうる。
ちなみに、この問題に関しては、今はみんなケータイを持っているのだから、連絡を取り合って適切な場所で待ち合わせをすればいい、という意見もあるだろうけど(僕はケータイを持っていないのでこのやり方だと仲間外れになってしまう)。

僕は、このフォーカル・ポイントの性質を会議でのプレゼンテーション(およびその後の検索)に応用できないものかと考えている。
つまり、スクリーンに投影している資料の中で多くの人が注目する(してしまう)点を見つけて、その点に関するトピックを集中的に議論すると、効果が上がるのではないかということである。
視線認識でもやらないと誰がどこを注目しているかわからないのではないかと思われるかも知れないが、僕たちのミーティングでは参加者全員がポインタ(つまりWiiリモコン)を持っているので、要所要所でポインタを使って自分の注目しているところを示す、という手がある。

そして、複数人の視点が集まっていることをわかりやすくする仕組みとして考えたのが、合体ポインタである。
他の参加者の注目しているところに自分も注目していることを示すために、ポインタを合体させて、より目立つポインタに変化させる(少し派手な色になるとか、サイズが大きくなるなど)のである。
ポインタを合体させる操作は、ポインタを重ねてボタンを押すだけである。
ポインタを分離させるときは、もう一度ボタンを押せばよい。

合体に参加しているポインタが多いほど、アピール度はより高くなっていく。
ポインタの数が参加者の半数を超えた場合に、合体ポインタの指す場所は、フォーカル・ポイントとして記録される。
会議後に、ファーカル・ポイントの存在しない資料は重要ではないとして、会議資料のエッセンスが自動抽出される。

ファーカル・ポイントを示しているポインタをフォーカル・ポインタと呼ぶ。
フォーカル・ポインタとなった合体ポインタは、合体に参加しているすべてのポインタの移動ベクトルの平均値によって位置が決まる。
つまり、合体ポインタの参加者全員が異なる方向に動かそうとするとポインタはほとんど動かない。
そのストレスから、合体を解除して、他の場所を指すものが続出して、その結果、最初とは異なる場所にフォーカル・ポインタを形成することもある。


このようにファーカル・ポイントは機械的に決まるのではなく、複数参加者の自発的行為から発現する一種の集合知によって決まるのである。

このフォーカル・ポイントが本当に議論の効率化に貢献するのかどうかは、まだわからないが、フォーカル・ポイントが見い出せないようなプレゼンテーション資料はやはりどこかがまずいのではないか、という気がする。
高橋メソッドだか何だか知らないけれど、やたらと字を大きくしてスライドの枚数を稼ぎ、インパクトを求めるあまり、きわめて断片的で文脈を捨象した情報しか表示しないやり方は僕は嫌いだけれど、書いてあることがバラバラでどこに注目したらよいのかよくわからないようなスライドもやはりダメだと思う。

一つのスライドに必ず一つのフォーカル・ポイントがあり、そこにはそのスライドで最も重要なことが書かれている、というのが理想である。
無論、その重要なことを補足する情報が、フォーカル・ポイントの周辺にできるだけ簡潔に書かれているのがよいだろう。

フォーカル・ポイントをうまく誘発できる方法がわかったら、きっと効果的なプレゼンテーションスライドの作成法や、そのスライドを使った効果的なプレゼンテーション法がわかってくるだろう。
その辺のことが明確になったら、いわゆるハウツー本でも書いてみようか。


ところで、複数ユーザーがWiiリモコンをポインタデバイスとして使えるようにする仕組みは、もともと僕のいる研究室の学生が作ったものだけど、かなりやっつけで作ってあってわかりにくいので、ソースコードを書き直して公開しようかと思っている。
ただ、これに関して引っかかるのは、プログラムを公開することで任天堂に不利益にならないか、ということである。

Wiiリモコンのリバースエンジニアリングに関するサイトはいろいろあって、僕たちも参考にしているのだけど、WiiリモコンをPCで使えるようにすることは任天堂のビジネスを拡大させることにはならないと思われる(人づてに聞いたところ、Wiiリモコンだけが売れてもあまりうれしくないらしい。まあ、当然だけど)ので、下手に煽って任天堂を怒らせ、Wiiリモコンの仕様が大きく変更されたら面倒なことになるなあ、と思っている(たいていの場合、企業がこういうことをすると、ハックするユーザーとの間でいたちごっこになる。最近このようないたちごっこが起こった例として、AppleのiPhoneに関して、App Store以外からダウンロードしたソフトウェアを実行できないようにするロック機能をユーザー側で解除するJailbreakがある)。

画期的なミーティング支援システムを僕たちが開発して、それを任天堂のライセンス付きで市販することができたら(無論、大学の研究室が直接、製品を販売することはできないけれど)、IT関連技術(ゲームではなくビジネスソフトウェア)を何でもかんでもアメリカから輸入する状況を少しぐらい変えられるのではないかと思っている。

投稿者 nagao : 11:46 | トラックバック

2009年02月24日

オムニムーバー、人をよける

最近、僕のいる研究室で研究開発している、全方位レンジセンサーを装備し全方位移動が可能な個人用知的移動体(オムニムーバー)による、複数の人間との接触・衝突回避を実現しましたので、ビデオを引用してご紹介します。

オムニムーバーは屋内では、地図を参照しながら、壁沿い走行を行って、目的地まで自動的に移動することができますが、移動の途中で、歩いている人間と遭遇したときにぶつかってしまうことがありました。
これではとても安全な乗り物とは言えませんので、歩いている人間が周囲にいてもぶつからないように動く仕組みを考えていました。

赤外線レーザーを使って、レーザーが届く範囲に存在する物体との距離を計測するレーザーレンジセンサーによって、移動体周辺の物体の位置(正確には物体とセンサーとの距離)を知ることができますが、自分自身が動いているので、周囲の物体との相対的な位置関係が変化します。
問題は、その位置の変化が予測できるかということです。
予測が当たれば、その物体とぶつからないように動くことはそれほど困難ではありません。
オムニムーバーは人間と同じように、どの方位にも旋回せずに動けますから、よけるために向きを変える必要はありませんので、比較的短い時間で回避行動をとることができます。

近くにある物体が壁や柱などの地図に載っているものなら、目的地までの経路を決めるときに、あらかじめ考慮しておくことができますが、一時的に荷物が置かれたときなど、地図に載っていないものが経路上に存在することがわかったときは、自分から見てどの方向のどのあたりにその荷物が存在するかを計算しながら動的に進路を変更する必要があります。
そのために、前述のレンジセンサーが役に立つわけですが、物体が動かないなら、問題はそれほどむずかしくはありません。
自分が止まるか、後ろに下がるかすれば、絶対にその物体にぶつかることはないからです。

しかし、物体が動いている場合は、問題は格段にむずかしくなります。
そもそも、自分より速く動く物体が接近してきた場合は、その進行方向が事前に予測でき、直前に変化しない場合を除いて、それをよけることは原理的に不可能です(ちょっと物騒ですが、プロペラの飛行機に、自動追尾機能を持ったミサイルが接近している状況を想像していただけるとわかると思います)。

オムニムーバーが人間より速く動ける乗り物であるという想定(実際は、電源の関係で、人間の早足(秒速約2メートル)より遅いです)で、人間の移動速度と方向(これを移動ベクトルといいます)を動的に予測して、その邪魔にならないように進路を変えるか停止する仕組みを実現しました。

以下の図は、レンジセンサーで得られた移動体(中央の青い長方形)を中心とした環境情報です。
緑色の点や線が動かない障害物をピンク色の線の集合が動く障害物(の移動ベクトル)を表しています。
また移動体の周囲の色の付いた部分は移動可能領域を、青い線は目的地に近付くための最適な移動方向を示しています。

at9-rangesensor.jpg

レンジセンサーの赤外線レーザーは物体を透過できませんので、壁などがあるとその向こう側の状態がわからなくなります。
そのため、交差点などで出合いがしらに人間とぶつかってしまうことを避けるために、環境側にもセンサーを設置しています。
これについては、また別の機会にご説明します。
ちなみに、移動体同士の場合は、事前に、通信によって現在位置と進路を相手に伝達していますから、衝突を回避することは比較的容易です。
安全で効率的な自動トランスポーテーション(人や荷物を目的地に自動的に運ぶ技術)のために、さらなる研究を進めていきたいと思います。

では、これからオムニムーバーこと個人用知的移動体AT9号機の自動走行と障害物回避のデモビデオをご紹介します。
このビデオでは、移動体に人が乗っています(乗り物なので当然ですね)が、操縦はコンピュータが行っています。
また、ビデオの中では表現されていませんが、自動走行のために、建物内の地図を移動体が自動的に取得して、搭乗者が目的地を自由に設定できるようになっています。

AT9号機の屋内自動走行は、基本的に壁を手がかりにして行います。

そして、角を曲がるときは、できるだけ壁から離れないようにします。
最初に曲がる方向を向いてから横に動き、正面の空間が広がったら前進します。

走行中に人間が近づいてくることがわかったときは、その移動の邪魔にならないように動きます。

この場合は、ほぼ真横によけて人間の進路から外れます。

障害物が動かないことがわかったら、あまり大袈裟によけずに、近くまで寄ってから最短の経路でよけます。

静止物だと思って近づいたら、至近距離でいきなり動き出した場合は一般によけられませんが、人間や他の移動体であることが他の手段(人感センサーや通信)によってわかれば、突然動き始めることが予測されますから、やはり、あまり近づかないようにします。
周囲に障害物(と思われるもの)が見つからなくなったときは、再び壁に近づいてから、壁沿い走行を継続します。
壁には、ランドマークとなるRFIDタグが設置されていて、ATが現在位置を認識し、走行経路を確認するために利用されます。
一般に、壁沿い走行の方が速く動けるようになっていますので、あたりまえのことですが、障害物がないときの方が目的地に早く到着します。

次は、左折ですが、右に曲がったときと同様に曲がる方向をあらかじめ向いてから右方向に走ります。

僕は、この動き方は、進行方向が変わることを、搭乗者にわかりやすく知らせるための方法の一つとしても有効だと思っています。
ちなみに、搭乗者は、いつでも自動走行をキャンセルして降車できるようになっています。

比較的広い空間に出ましたので、この場合ATは、必ずしも壁沿いではなく、目的地まで直線的に動こうとします。
あたりまえですが、空間が広いと障害物回避がより容易になります。

このとき、やはり人間が近づいてくることがわかったら、その移動ベクトルを予測して、人間の進路と重ならず、かつ、目的地にできるだけ近づけるように移動します。

このシーンのようにきびきびと動けるとよいですが、実際はこの3分の2程度の速度で動いています。

それにしても、このビデオはATが自動的に動いていることがわかりにくいですね。

投稿者 nagao : 00:02 | トラックバック

2009年02月22日

形態素を数えてみたら

人は一生のうちにどれだけの量の文章を書くのだろう。

前回のエントリーで紹介したタイムマシンボードのテキスト入力のために、僕がこれまでに書いてきた文書を使って辞書(読みや表記の一部から単語を引くもの)を作ってみた。
それには、2冊の著書(1997年と2000年に書いたもの)とこのブログ(2005年8月から今月までのもの)といくつかの(単著の)論文から得られた形態素(文法的に分割される文の最小単位)が含まれている。
僕は、これはほぼ10年分くらいの個人的な文書量だと思っている(ただし、英語の文献や、共同執筆の論文やメールなどは含まれていない)。

延べ形態素数は約20万でその異なり数(重複を除いたもの。助詞と助動詞と記号を除く。動詞や形容詞などの活用するものはその基本形の異なるもの)は約9千であった。
意外に少ないなあと思う。
確かに、僕が公開を前提に書いている文章は、専門的な内容がほとんどだけど、広い視野で研究に取り組んでいるつもりなので、使っている語彙はもっと多いと思っていた。

ちなみに、広辞苑第5版の項目数は約23万で、現時点のWikipedia日本語版の項目数は約56万である(これらは複合語や名詞句を含むので、厳密には比較対象にはならない)。

僕は他人に読んでもらえるような文章を書くことは、頭を使うためのきわめて重要なトレーニングだと思っている。
普段から人に見せる文を書く訓練をしていない人(もちろん、メールは訓練にはならない)は、まとまったドキュメントを書くときに、話し言葉に近い表現(「なので」とか「○○したい」とか「こういった」とか)を多用するため、その結果は、体裁が悪く、質が低いものになる(そのため、卒論発表会などで回覧される論文にはひどいのが多い)。
だから僕は、これからも文章を書いて公開していこうと思っている。
これは誰かのためではなく、あくまで自分のためなのである。

しかし、昔はともかく、今は論文を一人で書くことはほとんどなくなったし、本や解説記事は(書けとは言われているけれど)最近さぼっていたため、もっぱらこのブログが僕の(単独による)著作物になっている。
実は、このブログは形態素解析がやりやすいように、一文の後に必ず改行を入れているのである(形態素解析システムは改行までを一文とみなすことが多いので、文の途中に改行があると、その前後の語が正しく解析されないことがある)。

このブログは僕にとって日記ではないので、日常的な出来事などはほとんど書いていない。
基本的に僕が関わっている研究の話を書いている。
また、論文ではないので、あまりむずかしいことは書かないようにしている(それでも、知り合いからは「もっとわかりやすく書いて」と言われている)。
さらに、悪口はできるだけ書かないようにしている。
大学のことにせよ社会のことにせよ、腹の立つことはとても多いのだけど、実名をさらしているのだからめったなことは書けない(僕がリミッターを外して、思っていることをそのまま書いたら、すぐにこのブログは閉鎖になるだろう)。

そのため、形態素の異なり数があまり増えていかないのは当然なのかも知れないけれど、興味の対象が狭い範囲に限定されているのでは、教育者として適切ではないと思うので、形態素の異なり数が増えていくように執筆活動を続けていきたいと思う。

つまらないことにこだわっていると思われるかも知れないが、たとえ本を何冊も書いていたって、書いていることがいつも似たような内容なら、その著者に明確な進歩があるとはあまり思えないのである。
だから、書いてきた文章の形態素の異なり数を一つの目安とすることは、それほどおかしいことではないと思う(機械的な言語処理がさらに高度になって、意味解析の精度が十分なものになったら、これとは違う指標を用いることになるだろう)。
僕は、これから1年ごとにこの数値を調べてみようと思っている。

投稿者 nagao : 12:03 | トラックバック

2009年02月14日

タイムマシンボード:進化したホワイトボード

ご無沙汰しています。
ようやく時間が取れるようになってきましたので、僕のいる研究室の最近の成果をご紹介したいと思います。

僕のいる研究室では、ホワイトボードを電子化・ネットワーク化した新しいミーティングツールとして、タイムマシンボード(TimeMachineBoard)と呼ばれるシステムを研究開発しています。
名前から想像できますように、このシステムは、AppleのMac OS X Leopardの機能の一つ、Time Machineとほぼ同じ発想に基づいています。

もっとも、AppleのTime MachineのようにPC内のデータのバックアップがメインではなく、過去のミーティングの内容を検索して、容易に再利用できるようにすることが目的です。
たとえば、以前に誰かが書いた文字や図は、ペンのストロークごとに詳細に記録されています(書いた時間、そのときのペンの色や太さ、書いたユーザーのIDも含まれています)ので、時間を遡って再現することができます。

僕たちは、まず、以下の写真のように、大型液晶ディスプレイと赤外線LEDペン(ペン先が押されるとペンのお尻から赤外線を発信するペン)およびWiiリモコンを使って、電子的なホワイトボードを実装しました。

tmb_pen1.jpgtmb_pen2.jpg

ただし、この仕組みは僕たちのオリジナルではありません。
アメリカのCMU(カーネギーメロン大学)の学生が、すでに実現して、プログラムを公開しています(参考)。
僕たちは、ペンにユーザーIDを関連付けるために、若干の細工を施しました。
これには僕らのオリジナルデバイスであるWiiリモコン用赤外線IDデコーダも利用しています。
また、頭上に固定しているWiiリモコンにACアダプタを接続できるようにしました(これで電池切れの心配がなくなりました)。

次に、ペンでいろいろなことができるようにするためにユーザーインタフェースを工夫しました。
たとえば、個人専用のWiiリモコンのAボタンを押しながら、リモコンと同じIDを持つペンで画面をタップすると、以下の図のようなメニューパレットが表示されて、ペンや背景の属性を変えることができます(これは、ペンのみ、あるいはリモコンのみを使っても行えますが、両手にペンとリモコンを持って使うのが最も効率的です)。

tmb_penpalette.jpg

ペンの属性には、機能(通常のペン、イレーサ、アンダーライナー、オブジェクトの選択・移動・拡大縮小、範囲選択とコピー)、色、サイズ、ストロークの種類(フリーハンド、直線、矢印、矩形)があります(ちなみに、ペンを通常のマウスのように使うこともできます)。
また、背景の属性には、通常のデスクトップ画面、ホワイトボード、グリッド付きのホワイトボードがあります。

ペンによる文字入力の仕組みも作りました。
これは以下の写真のような、ひらがなとアルファベットのキーボードパネルから文字をペンで選択すると、その文字で始まる言葉(漢字の場合はその読みの先頭がマッチするもの)がリストアップされ、そのどれかをペンやリモコンの十字キーで選択する仕組みです。
これは一般のキーボードに比べると明らかに遅いですが、手書き文字入力よりは速くテキストを入力できると思います。

tmb_input1.jpgtmb_input2.jpg

また、以下の写真のように、WebブラウザやPowerPointなどのWindowsアプリケーションを立ち上げておいて、ペンでその画面の任意の部分をクリッピングしてホワイトボード画面に貼ることができます。

tmb_clip1.jpgtmb_clip2.jpg

当然ながら、僕たちが以前からミーティングで使っているWiiリモコンによるポインタ機能も同様に使うことができます。
前々回のエントリー「スティッキーとアンダーライナー」でご紹介した機能は、すべてこのタイムマシンボードで利用することができます。
たとえば、スティッキー(以下の上の図)で、テキストやイメージを、タイムマシンボードに転送することができ、以下の下の写真のように、ペンやリモコンを使って表示位置やサイズを変更することができます。

tmb_sticky1.jpg
tmb_sticky2.jpg

僕たちの使っているWiiリモコンは、ポイントしているボードを赤外線IDで識別できますので、複数のボードにまたがった操作をすることもできます。
たとえば、以下の写真のように、近くのボード上の手描き図を遠くの(より大型の)ボード(この例ではプロジェクタスクリーン)に転送して表示させるような操作です。

tmb_copy1.jpg
tmb_copy2.jpg

実は、タイムマシンボードは、いわゆるグラフィックファシリテーションの仕組みを実装することを目指して設計されています。
ファシリテーション(会議を円滑に進めるためのテクニック)に関してはいつか改めて書いてみたいと思いますが、ホワイトボードをうまく使うことで、適切に議論を誘導・調整できるように、ファシリテーションとホワイトボードの活用術には強い関連があると思われます。

たとえば、以下の左の写真のように、クリッピングしたりスティッキーで転送した図にペンでマーキングしたり、右の写真のようにテキストの任意の部分にアンダーラインを引いたりしながら、説明に抑揚をつけたり、議論の流れを適切に導いていくことができるようになっています。

tmb_marking.jpgtmb_underline.jpg

近い将来、タイムマシンボードは、参加者のファシリテーションのスキルに依存せずに、システムを使っているうちに自然にファシリテートされるような会議を実現することができるでしょう。

そのために、会議におけるユーザー行動(ペンやポインタの動き、スティッキーによる文字や画像の入力と移動、背景画像からのクリッピングなど)を自動的に記録して、その時間に基づいて構造化する仕組みによって、現在進行中の会議を支援する手法を模索しています。

たとえば、過去にボードに表示した内容の一部を引用して現在の議論に役立てたり、現在のボードの内容を消去したときに、自動的に、近くにある他のボードに直前の内容をサムネイル表示するなど、記録のさまざまな活用法を実現しています。
また、音声も記録しているので、ボードに描きながら、あるいはボードをポイントしながら話していた内容をボード内容の検索と連動して再生することができます。

さらに、タイムマシンボードのコンテンツは、Webブラウザでアクセスできるようになっていますので、どこにいてもボードに書いた内容を閲覧することができます。
これはリフレクションと呼ばれる、議論内容の振り返りを促進するための仕組みです。

このように、タイムマシンボードは、従来のホワイトボードを、過去を遡って内容の一部を検索・引用できるようにすることで、時間的に拡張し、さらに、複数のボードを柔軟に連携できるようにすることで、空間的に拡張したものと言えるでしょう。

いずれは、僕のいる研究室の一つの壁全体をタイムマシンボードとして使えるようにしようと思っています。
このような壁に、僕はタイムマシンウォールという名前を付けようと思っています(そのまんまですね)。


昨年、Panasonic(旧松下電器産業)がライフウォールというコンセプトを発表したのを見たとき、僕は「この人たち、よくわかっているなあ」と思いました。
僕は、このライフウォールおよびそのアプリケーションが、近未来の情報化・ネットワーク化された日常生活環境の一例をよく表していると思ったのです(家族の見ている前で自分宛のメールをチェックするかどうかはさておき、リビングルームに家族全員が集まる機会が増えるのはとてもよいことでしょう)。
ちなみに、僕はライフウォール(Life Wall)よりリビングウォール(Living Wall。リビングルームと「生きている」という意味をかけている)というネーミングの方が合っていると思います。
将来、Living Wallに等身大の自分の映像とメッセージを残して、子供たちへのLiving Will(遺言状)にする、などのようなことも実現されるでしょう。
遺言状は別としても、若いころの父親や母親の姿やメッセージに、現在の自分が元気づけられる場面がこれから増えるのではないでしょうか(過去の自分から未来の自分に送るメッセージというのでもよいですね)。

この仕組みは、屋内の一つの壁のほぼ全域をディスプレイとして使えるようにしたもので、たとえば、テレビ電話なら等身大の相手を表示して会話ができますし(かなり親しい間じゃないとこんなことはしないと思いますが)、画面に手を伸ばすとその手の先あたりに、ユーザーごとにカスタマイズされたメニューを表示して、表示内容を操作できるようです。
また、ユーザーの顔のあたりに子画面を表示してその人に合った情報を表示することもでき、さらに、その人が左右に歩くとその子画面が人の動きに合わせてついてくる、というデモもやっていました。

ディスプレイ前のどのあたりにユーザーが立っているかどうかは、赤外線の反射を検知するセンサーを使えば簡単にわかりますし、手の動きを認識したい場合は、よくジェスチャ認識で用いられている、赤外光の反射による2.5次元の距離画像(2次元の画像にピクセルごとのカメラからの距離を加えたもの)を処理すればよいでしょう。
しかし、一般に、ユーザーを瞬時に正確に識別するのは簡単ではないと思います(ライフウォールは顔画像認識をするのだと思いますが、最初にどの程度の画像を登録する必要があるのかよくわかりません)。

僕たちが、ユーザーインタフェースデバイスとしてID付きのWiiリモコン(とLEDペン)を使っているのは、パターン認識技術によるユーザー認証がまだしばらくは実用に耐えないと思っているからです(バイオメトリクス(生体認証)を使うのならかなり精度は良いと思いますが、センサーから1m以上も離れたらうまくいかないと思います)。
また、自宅内に限定されるのならよいですが、デジタルサイネージ(電子看板)のユーザー適応のような、公共の場で個人認証を行う場合、顔やバイオメトリクスより、できれば有効期限付きのIDを使う方が、不用意にトレースされないようにするためにはよいと思っています。

それに、Wiiリモコン(によるポインタ)やLEDペンがあれば、ハンドジェスチャの認識も必要ありません。
デモでは発生しなかったようでしたが、ジェスチャの誤認識や認識遅れによるユーザー意図とのずれはきっと発生するでしょう。
少なくともタッチパネル程度の安定性がないととても実用に耐えないと思います。
ただ、一人が複数のデバイスを持つのは適切ではないと思いますので、僕は、近い将来に、WiiリモコンとLEDペンの機能を統合したデバイス(必要に応じて分離できる)を作ろうと思っています(ポインタペンという名前も考えましたが、どうでしょう)。

ところで、ライフウォールに関して、僕がすばらしいと思っているもう一つの点は、一つの巨大ディスプレイの一部を複数のユーザーでうまく使い分けているということです。
壁全体がディスプレイになるからといって、常に壁全体に何かを表示しなければならないわけではないでしょう。
必要な情報を必要な部分に表示できれば、それ以外は壁のまま(あるいは背景となる画像のまま)でよいはずです。
壁全体がディスプレイなら、そのときの気分で好きな絵や写真を好きな位置に配置できますから、最近流行りのデジタルフォトフレームなども必要なくなるでしょう(無論、壁ではなく、机の上に飾りたい場合には有用ですが)。
省エネルギーや耐久性のことをよく考える必要がありますが、そう遠くない将来に、大型ディスプレイをかなりの省電力で常時稼働させる技術が生み出されると思います(LEDバックライトや有機ELはなかなか有望ですね)。

ライフウォールで提案されているハンドジェスチャによるユーザーインタフェースが一般に普及するには、まだまだ多くの研究が必要だと思いますが(僕はペンにもなるポインタリモコンの方が早く実用化されると思っています)、人間のいるところにその人間にとって必要な情報を表示し、その人間が移動したら情報(の表示画面)も一緒に移動する、という仕組みは、結構早い時期に実用化されるのではないかと思います(大好きな人の顔や姿をいつも間近で見ることができるようになりますよ)。
屋内外のさまざまな壁がこのような仕組みを持てば、ほぼ、どこでもディスプレイが実現できるでしょう。

ところで、どこでもディスプレイといえば、頭部装着型のディスプレイ(いわゆるウェアラブルディスプレイ)も将来の実用可能性が見えてきた気がします。
これについても、また別の機会に書いてみたいと思います。

投稿者 nagao : 00:54 | トラックバック