2009年10月11日

継続は力なり

2005年8月にこのブログを始めて、今回でようやく100エントリー目になりました。
毎日書いている人なら100日で達成することですが、僕は4年以上もかかってしまいました。
今後、特に時間的に余裕ができる予定もありませんので、おそらくこれからも同様のペースで書いていくことになるでしょう。

僕としては、このブログを書いてきたことで、特に新しいことができるようになったわけではないと思っているのですが、まとまった文章を書いて公開していく習慣が身に付いていないと、考えていることがうまく整理できず、人にちゃんと伝えられなくなってしまうのではないかと思っていますので、これからも細々と続けていこうと思っています。

ただ正直、このブログを書くことで、僕が普段考えていることや、これから研究したいと思っていることを、指導している学生たちに多少なりとも知ってもらいたいという気持ちがあります。
でも、いざ学生から「先生、ブログ読みましたよ」とか言われると、照れくさくて話をそらしたりしています(われながら複雑なのです)。

よく「エントリーが長いよ」と言われるのですが、これには理由があります。
やはり、文章が短いと文脈がわかりにくくなりますし、後で読み返しても自分が何を考えてこれを書いたのかわからなくなるのがまずいと思って、それなりの分量にならなかったものはブログにアップしていません(つまり、書きかけてアップしなかった草稿が結構あります)。

ちなみに、僕が流行りのTwitterをやろうと思わない理由の一つは、周囲の文脈から切り離された短文では、深い内容を伝えることは無理なのではないかと思っているからです。
単なる「つぶやき」にそんな深い意味を求める人はいない、と思われるかも知れませんが、僕は、あまり意味のない文を不特定多数が検索可能な状態でネットに置いておきたくはないのです。
これはけっして、短文には深い意味がないと言っているのではありません。
ブログや動画など、参照しているコンテンツが明確になっている場合のコメント文は、ある程度文脈を読み取ることができるので、短くても深い意味を伝えることができるでしょう。

さて、100エントリーというのは量としてはあまりたいしたことはなさそうですが、切れのよい数ですので、このテキストを使って少し実験をしてみようと思います。
まず、文書解析をして自動的にカテゴリやタグを生成してみようと思います。
今まで、エントリーを内容に基づいて分類してこなかったのは、面倒だったからというのもありますが、データがそれなりに揃ったら、それをじっくり眺めて分類方法を考えようと思ったからです。
それに、初めにカテゴリを設定しておくと、内容とカテゴリが合っているのかどうか悩んだり、カテゴリのバランスを取ろうとか余計なことを考えて煩わされると思ったのです。
今後は、これまでのエントリーから機械的に抽出した特徴で分類した結果を、人手で編集することでカテゴリを作成していこうと思います。

と思っていたら、京都大学がNTTの研究所と共同で、ブログを解析したコーパス(例文データベース)を公開していることを知りました(参考
これは、大学生81人が執筆した249記事(4186文)を含んでいるそうです。
このコーパスは、形態素や構文情報の他に、省略や照応(代名詞などの参照)のアノテーション、さらに評判表現アノテーションという、何らかの対象に個人的意見を述べている表現に、以下のような意味的属性を付けたものを含んでいるそうです。

評判タイプ:評判の種類と評判の極性。
当為: 提言、助言、対策。「~すべきだ」「~しましょう」
要望: 希望、要求。「~してほしい」「~を求める」
感情(+か-を伴う): 気持ち。「好き」「悲しい」
批評(+か-を伴う): 賛成と反対、称賛と批判。「素晴らしい」「納得できない」
メリット(+か-を伴う): 利点と欠点。「効果がない」「うるさい」
採否(+か-を伴う): 積極的利用、推進。「利用する」「導入する」「採用する」
出来事(+か-を伴う): 良い/悪い出来事や状態。「壊れた」「受賞した」

これは、なかなか興味深い言語データです。
評判情報に関しては、機械的な解析のみでは精度が低いですし、人間が修正するとしても、著者本人にしか正解がわからない場合があるので、ちょっと怪しいですが、言語構造に関しては、機械学習用のデータとして有益だと思います。
以前に、ワードローグというシステムで、このブログを形態素解析して、未知語(辞書にない語彙)や省略・照応の情報を付けていたのを思い出します(忙しくてまだプログラムの続きを作っていませんが)。

僕は、人の言語表現力が時間(つまり経験)とともにどう変化していくかに興味がありますので、それが可視化できるような仕組みを考えています。
言語表現力は文章をちゃんと書く能力のことで、それには、記述している文の構文的適格性(文法的に正しいかどうか)、語彙の適格性(言葉を正しく使い分けているか)や多様性(同じ言葉ばかり使っていないか)、文脈の論理性(前の文とのつながりが適切か)などが関わってくるでしょう。
他のコンテンツを引用している場合は、引用箇所とそれに対する言及箇所に明確な対応関係がないといけないと思いますので、それも評価してみたいと思います。
さらに、主張していることがぶれていないか、結論を述べずに先送りにしていないか、説明している内容が事実と矛盾していないか、などの内容の信用性に関わる特徴を、比較的簡単に調べられる仕組みについても考えてみたいと思っています。

ちなみに、このブログは、100エントリーで5139文(各エントリーのタイトルを含む)の分量です。
10000文くらいあると、それなりに面白い結果が得られそうなのですが、達成するまで、さらに3~4年かかってしまうかも知れません。

さて、次回からは、このブログをリニューアルして、トピックカテゴリやプロフィールなどを追加していく予定です。
更新は今月末になりそうですが、気が向いたときにでも見にきていただけると幸いです。
今後ともどうぞよろしくお願いします。

投稿者 nagao : 17:21 | トラックバック

2009年09月28日

第参回天下一カウボーイ大会雑感

先月末に、秋葉原で「第参回天下一カウボーイ大会」というイベントが開催されました。
このイベントはアスキーのサイトでも紹介されています。

「天下一」はラーメン屋さんのことではなく、「ドラゴンボール」からの引用だと思いますが、「カウボーイ」って何だろうという感じですね(IT系のイベントという気が全然しませんが、まあこれでもよいのでしょう)。
これは、知り合いの清水亮さんが代表取締役社長を務める株式会社ユビキタスエンターテインメントと週刊アスキーの共催です(たまたま見た、今週号の週刊アスキーにこのイベントの記事がありました)。
僕は清水さんに頼まれてそれに出ることになったのです。

僕は、前回のエントリーで触れたATの話をしようか、Synvie(動画アノテーションとその応用)の話をしようか迷った挙句、研究室で運用している会議システムの話をすることにしました。
その理由は、「テクノロジーがそれを使いこなそうとする人間を賢くすることができる」ことを具体的に説明して、ただ面白いからやるというだけでなく、人類の未来のことを考えた発明を目指して欲しいと思ったからです。

サイエンスやテクノロジーの面白さを伝える話でも、アートやエンターテインメント寄りの話でもない、小さいアイディアでも積み重ねていくことに大きな意味があって、人がより賢くなれるためのツール、なんて地味な話をしてしまって、イベントの開催者側の意向にそぐわなかったかも知れません。
正直、ちょっと悩んだのですが、僕はこのイベントに参加する人(参加は有料)は割と頭がよくて深く考える人なんじゃないかなと勝手に考えて、ならば専門的な話で煙に巻いたり、瞬間芸的なインパクトで盛り上げたり、とかではなく、話を聞いてよく考えるとじわじわとありがたみがわかってくるような話にしようと思ったのです。
まあ、最初にちょっとしたデモをやったりして(あまりうまくいきませんでしたが)観客の受けを狙ったのは事実ですが(デモ中にステージ上をうろうろしていたら「落ち着きのない人」というコメントをいただきました)。

ちなみに、僕が講演で使ったWiiリモコンは以下の写真のもの(黒い方)ですが、リモコンの先端の横に装着されている黒い箱の正体は、赤外線LEDが発するIDを認識して、リモコンに伝達する装置です。
僕たちはこの赤外線IDを、リモコンを向けているスクリーンを識別したり、参加者の座っている位置を認識するために用いています。

wii_remote2.jpg

さて、このイベントでは、180ロデオと呼ばれる3分間のライトニングトークが売りでした。
基調講演などその他の講演も面白かったのですが、3分間のトークと比べると、(自分のを含めて)どれも冗長な感じがしました(もうこの手のイベントで1時間以上の講演は企画しちゃいけないと思います。特に2日目の講演というか雑談はこれが学会なら苦情が出るレベルです)。
このイベントに出て痛感したのは、短い時間でよい話ができるようなトレーニングをしなければならないということです。
それは、有名人でもない限り、自分の話を知り合い以外の人にじっくり聞いてもらえる機会はあまり多くはないのだから、その機会を無駄にしないために、簡潔で印象に残るいい話ができるスキルが必要だと思うからです。
僕は、このイベントの話を最初に聞いたときは、3分なんて初めの挨拶で終わっちゃうよ、と思っていましたが、全員の話を聞いて、それが間違いであると気づきました。
わずか3分間に、十分に内容のある話をデモを交えてわかりやすく話をすることのできる人はいる、ということがわかりました。
あと、即興ではないので、準備をしっかりしていない人の話はダメだということもよくわかりました(たとえ、システムの開発力が十分にあっても、ちゃんと話のできない人の話は印象に残りにくいです)。

とにかく、180ロデオは内容が盛りだくさんでとても面白かったです。
僕は審査員を頼まれたので、この参加者の発表を評価したのですが、この3分間でより多くの可能性を感じさせてくれたものに高い点を付けました。

何と言っても最も印象に残ったのは優勝したBlogopolisというものです。
これは見ていただければすぐにわかりますが、ブログのトピックを分類し、都市の景観(ブログがビルのメタファで表される)として可視化したものです(ちなみに、このブログを検索するとdesignとsoftwareの中間くらいにありました。まともなタグも何も付けてないのによく分類できたものです)。
僕はこの話を聞いて、「ああ、これが優勝だな」と思いました。

あと、モバイルプロジェクタとWiiリモコンを組み合わせて、どこでもアニメーションやお絵かきができるようにした仕組み(LEDにIDを付けて、タグとしてどこにでも貼り付けられるようにするともっと面白いと思います)や、位置情報付きの写真をイメージベーストレンダリングと呼ばれる手法で組み合わせ、過去の体験を想起できるようにしたバーチャルタイムマシンというシステム(MicrosoftのPhotosynthみたいなものですね)、さらに、運動を情報に変えるマスカラスというシステム(Wii Fitみたいなトレーニング支援だけでなく、新しいインタフェースに使えるといいですね。体力の程度に応じて得られる情報が異なるサービスとか。ちなみに、このシステムは、NHKのニュースでも取り上げられました)や、iPhoneを顔に持つ人型ロボット(iPhoneのカメラがディスプレイ側にも付いていると、もっと使えるのに)が面白いと思いました(結局、これらの発表は何らかの賞をもらったので、他の人の評価も似たようなものだったことがわかりました)。


司会の清水さんもよく場を盛り上げていました。
彼のような人がいるから、日本の若手エンジニアは未来への夢を共有できるのだなあ、と思いました。
僕のやり方とは全然違いますが、彼が、面白いことをいろいろと考えては、学生たちによい刺激を与えているさまを見ると、こういう教育もありだな、と思ったりします。
そんな彼が、僕の講演が終わったときに、「この人は僕にとって恩師と呼べるような人です」と言って僕を紹介してくれました。
その言葉が聞けただけで、僕はこのイベントに出てよかったと思っていますよ、清水さん。

投稿者 nagao : 22:52 | トラックバック

2009年09月26日

先駆者になるためにPart 2

ご無沙汰しております。
かなり間が空いてしまいましたが、このブログを再開したいと思います。


つい最近、ホンダが開発したU3-Xという電動一輪車を見て、とても感銘を受けました。
何より驚いたのは、1つの車輪(正確にはオムニホイールと同様に複数の小型輪を外周上に配置した車輪)のみを使って全方位移動を実現していることです。
通常のオムニホイールと違って、小型輪にも動力があり、大型輪と組み合わせて全方位への力を発生させるだけでなく、乗っている人の体の傾きを3軸角度センサーで検知して、倒立振子制御の仕組みでバランスをとって倒れずに走ることができるようです。

この仕組みは予想外でした。
僕は全方位移動には最低でも2輪が必要だと思っていたからです(球型の車輪1個を使うというアイディアも検討しましたが、実装はあきらめました)。
セグウェイ以降、移動体の倒立振子制御があたりまえになっているとはいえ、1輪さらに全方位でそれをやるとは、やはり日本の技術力は優れていると思わざるを得ません。
ちなみに、電動一輪車を体のバランスで操縦する仕組みは、ホンダが初めてではなく、すでにeniCycleというスロベニアのベンチャー企業が開発したものがあります。
eniCycleは屋外を走れますから、U3-Xより実用性は高いと思います。
しかし、どちらにより未来を感じるかというと、僕にとっては明らかにU3-Xです。


僕は以前に「日本の企業はもう先駆者にはなれないのではないかと不安になった」と書いたのですが、今回のホンダの発表を見て、やはり、日本企業のものづくりはまだまだレベルが高いなあ、と思いました。
以前に、デンソー総研というところに見学に行った時にもそう感じました。
そこでは、1本キャタピラの悪路走行可能なバイクや、手塚治虫の漫画「W3(ワンダースリー)」に出てくるビッグ・ローリー(わかる人います?)みたいな大型一輪車を作っている人がいて、やはり革新的なものを作れるのは、ものづくりが好きでそのための努力を惜しまない人なのだろうと思いました。


それにしても、一輪車はスペース的には最小でも、ある程度以上のスピードを出そうとすると安定性が悪いので、同様のホイールを前後に配置した全方位移動2輪車を開発してはどうでしょう。
これなら通常のバイクのように乗れますし、デザインもいろいろ工夫できます。
いわゆるニーグリップの姿勢をとれるようにすれば、人間と乗り物の一体感が増して乗り心地も良くなるでしょう。
省スペースや可搬性を気にするのでしたら、折りたためるようにすればよいでしょう。
あるいは簡単に分解できて、同じくホンダの開発した歩行アシストのように装着型マシンとしても使えるようにするのはどうでしょうか(2個の車輪を片足づつに固定できて、残りの部分を背負えるようにするといいです)。

とにかく、何が何でも1輪にしなければならない理由は特にないと思いますので、2輪にすれば、安定性が上がりますし、(人間の補助なしに)その場回転ができますから、僕たちのATのように自律走行も可能になるでしょう。


ちなみに、AT9号機は最近、以下の写真のように、オムニホイールをメカナムホイールに変更しました。
これによって直進の走行安定性が向上しました。

at9new.jpg

しかし、相変わらず段差を乗り越えられないので、屋外を走行することができません。
ホンダのU3-Xもそうですが、これは大きなデメリットです。

そこで、自転車の車輪と同じ、通常の空気入りタイヤで全方位移動ができる仕組みを試作してみました。
それが新しく開発したAT10号機です。

at10_1small.jpgat10_2small.jpg

ただし、これはまだプロトタイプの段階で、メカニズムの検証を行ってから、設計と製作をやり直す予定です。
このプロトタイプを作ったのは、今年の11月に開催される「つくばチャレンジ2009」というイベントに出場するためです。
これは自律移動ロボットのコンテスト(正確には、優勝者を決めるわけではないので、コンテストとは呼べません)で、オープン参加で、各参加者の開発したロボットに約1kmのコースを自律走行させて結果を公開するというものです。

ATは自律走行可能な乗り物ですから、このイベントに出ることによって、現在の技術水準がどの程度のものなのか評価することができます。
AT9号機は屋内走行専用だったので、屋外の自律走行はまだあまり経験がないのですが、位置情報の取得方法が大きく異なる点と、路面の段差を考慮しなければならない点以外の部分はそれほど大きな違いはないと思います(もちろん、自動車やバイクなどのATより速い移動体との衝突回避は大きな難問なので、ここでは考慮しないことにします)。

屋内外の自律走行が可能で、全方位移動による安全な衝突回避ができる、実用性の高い乗り物を作るために、これからも研究を続けていこうと思います。

投稿者 nagao : 15:26 | トラックバック

2009年04月03日

会議革命、その後(後編)

僕は、最近になってようやく自分の間違いに気がついた。

議論のスキルが向上するために最も必要なものは、ツールを使いこなすテクニックではなく、議論への参加意欲だった。
だから、どんな支援ツールを開発して運用しても、参加意欲がわかないのならば、学生たちの議論スキルの向上には結びつかないだろう。
実は、ゼミの成績を決めるときに、彼らの発表数と発言数を用いているのだけど、それがインセンティブになって積極的に参加してくれるかと思ったら大間違いだった。

つまり、参加者の意欲を高めることにもっと注力すべきだった。
どんな会議でもそうなのかも知れないけれど、僕たちのミーティングでは、ほとんど発言しない人がいる。
成績に関係するからたくさん発言してください、と言ってもその直後くらいに、申し訳程度に一度か二度発言するだけで、後はずっと黙っている。
講義じゃないんだから、黙って聞いていればよいというものではない。

僕はどうして発言をしないのかずっと考えていたのだけど、参加意欲を高めることを自発的にできない人が結構いるということがだんだんわかってきた。
これは必ずしも頭の良さとは関係がない。
おそらく、自らの力で意欲を高める方法を学んでいないのであろう。
その習得は、主に体験によってなされる。
だから、会議の参加者が何らかのやり方で参加意欲を高めていく実践を積み重ねていかないと、いつまでたってもよい議論ができないのである。

僕たちの作成している会議コンテンツは、ゼミでの発表や発言がすべてビデオに記録されているから、ゼミ直後から自分の発表や自分に対する質問や意見を詳細に振り返ることができる。
僕は、発表者に必ず自分の発表のビデオを見るように言っている。
しかし、自分の発表をまったく振り返ろうとしない学生がいる。
これも意欲の問題なのだと思う。
ゼミで誰か(主に僕)に厳しいことを言われて嫌になり、さらにそれをビデオで見返して再び嫌な気分になることを恐れているのだと思う。

やはり、これは僕が学生たちの心に訴えかける努力を怠っていたからであろう。

前編で触れたファシリテーションには、ミーティングを含む組織活動に積極的に参加する(つまり、自分の頭でよく考えて行動する)動機付けを与え、意識改革を促進させる、という目的もあるそうである。

最近読んだ「ザ・ファシリテーター」(森 時彦著、ダイヤモンド社、2004)という本によると、グループダイナミックスと呼ばれる、小集団の心理を扱う学問があり、以下のような仮説があるそうだ。

他人との関係において、ひとは自分の心身を守るために、ある程度防衛的な関係を築こうとする。
米国の心理学者ギブは、その背景には懸念(恐怖や不信頼感)があると仮定し、それを4つ(受容・データ流動・目標形成・社会的統制)に分類した。
「受容」とは、自分自身や他者をメンバーとして受け入れることができるかどうかにかかわる懸念。
「データ流動」とは、「こんなことを言ってもいいのだろうか?」と不安になるような懸念。
「目標形成」とは、グループ活動の目標が理解できないことに起因する不安感。
「社会的統制」とは、グループ内で依存願望が満たされない場合に発生する不安感。
この4つの懸念を解消していくことにより、グループは成長し、メンバーも成長していく好循環が生まれるというのがギブの提唱した理論である。

僕は、研究室に配属された学生たちから、このような不安感を取り除くための努力は特に行ってこなかった。
上記のような不安感があるとしても、それはただの甘えだと思っていて、僕の方から歩み寄ることもなく、突き放した態度をとっていた。
学生たちと馴れ合いの関係になりたくないという僕の気持ちが、当然のように彼らとの距離を作っていた。
僕のそういう態度は学生たちにはかなりのプレッシャーだっただろう。
そういうプレッシャーに打ち勝ってきた学生(それから、もともとそれほど不安感を持つことのない、どちらかというと脳天気な学生)はそれなりに積極的に議論に参加し、目覚ましく成長した。
ただ、その一方で、研究室の活動に意欲を持てないまま、休学や退学する学生もいた。
無論、僕はそういう学生たちに無関心であったわけではなく、むしろ気になって仕方がなかったのだけど、結果的に何もできず、ただ悔しい思いだけが積み重なっていった。
うまい会議をやる以前に、よい組織を作っていくという、もっと基本的なことで僕は間違っていたのだろう。

また、同じ本には、次のような記述があった。

じっくり考えて間違いのないことを言いたいと思ってしまう、そういう傾向が、特に知的レベルの高い日本人には多いですね。
日本人が世界のいろいろなコミュニティーの中でリーダーシップをとれないのは、そのためかも知れないと思うことがあります。
じっくり考えること自体は悪くありませんが、「外部化されたグループ思考プロセス」にも参加する力をつけてもらうと、思慮深い人の力が、もっと全体に活かされると思います。
深く考える前に発言していただく、そういうクセをつけてもらえるといいですね。

「外部化されたグループ思考プロセス」というのは、以下のようなことらしい。

「いい面や悪い面をすべて考えて、比較検討しよう」
「プロセスを洗い出して、どこにボトルネックがあるのか順番に見ていこう」
そのような枠組みを可視化して示すと、メンバーの意識もそこに集まって、それに沿って意見を出しやすくなります。
何のためにやっているか混乱しているなと思ったら、ツリー状に目的と手段を結んで構造を示すのがいいですね。
部分最適化が全体最適化に優先する議論を無意識にしてしまうことはよくありますよね。
そういうとき、このツリー構造を描きながら議論すると、全員で真の目的を共有することができます。
いったん目的が共有化されると、改めて視野を広げ、もっと有効な、いままで気づかなかったような解決策を考えられることもあります。
「論理を構造化して、可視化して、共有する」
可視化することで思考プロセスを個人の頭の外に出すことができます。
そうやって思考プロセスを外部化すれば、グループで知恵を合わせて考えることができます。

このような、論理的構造を動的に生成してコンパクトに表示することなどは、僕たちのツールでいろいろできそうである。

さらに、アイスブレーク、つまり会議参加者の気持ちを和らげるために会議前あるいは会議中に行うちょっとしたエクササイズあるいはゲームに関して、以下のような記述があった。

皆さんは、運動をする前に準備体操とか柔軟体操とかしますよね。
誰かが背中を押してくれることがあるかもしれませんが、自分で意識的に体の力を抜いて、ストレッチしないとなかなか効果が出ません。
他人任せでは、体の柔軟性も得にくいわけです。
心も同じで、虚心坦懐に人の話を聴く、議論の枠組みに沿って考えてみる、思いついたことを口に出してみるという、開かれた気持ちにするのがアイスブレークですから、アイスブレークの機会に自分の心を自ら開く努力が必要なのです。
体と同じで、心も硬くなりがちです。
硬い心は、他人の意見を軽視し、言葉尻だけを取り上げ、曲解しようとします。
そういう無意識的な拒絶反応が自分の心にはあることを意識して、心のアイスをブレークすると効果的です。

こういうものを読むと、メンバーそれぞれの心の問題というのは、組織の活動において考慮しないわけにはいかない本質的な問題なのだと思えてくる。


似たような話で、「会議、ひと工夫で活発に」と題する、最近の日経新聞の記事には以下のようなことが書いてあった。

2009年1月、サイバーエージェントでは、藤田晋社長の発案で会議室に座布団を運び入れることにした。
よい企画を提案した人に藤田社長が1枚授与。
つまらなかったら取り上げる。
遊び心を取り入れつつ緊張感を与えるのが狙いだ。
5枚以上集めれば社長のブログで紹介される。

発言者を指定するためボールを回す手法もある。
ボールを持った人が話し、その間ほかの人は聞きに回る。
回したり投げあったりすることで、場の盛り上げ効果もある。

(日本経済新聞 2009年3月14日朝刊より)

最初にこれを読んだときは、「何をやってんだ。この会社は」と思ってあきれていたのだけど、こんなちょっとした工夫で会議が盛り上がりアイディアが出やすくなるのならやってみる価値はあるのかも知れない(さすがに、座布団やボールを使うなんていうやり方は避けたいけれど)。

とにかく、僕は学生たちの心に訴えかけるようなファシリタティブな教師になろうと決心したのである。
その成果については、いつかこのブログに書いてみたいと思う。

投稿者 nagao : 01:46 | コメント (1) | トラックバック

2009年03月22日

会議革命、その後(前編)

僕のいる研究室でのミーティングではこれまでにさまざまな試みを行ってきているけれど、残念ながら議論の質を向上させるような革新的なものにはまだなっていない。
僕たちの努力の大部分は、会議内容を詳細に記録して、議論の検索や閲覧がやりやすくなるように、会議中にできるだけ多くのメタデータを付けて構造化し、コンテンツとして共有できるようにすることに費やされてきた。
しかし、たとえ、議論を(半自動的に)構造化コンテンツにするという試みがうまくいっていても、それだけで、よい議論ができるというものではない。
会議をコンテンツ化しても、それを役立たせる努力がなければあまり意味がない。

僕たちがこれまでに作ってきた仕組みは、会議後に繰り返しコンテンツを利用することでじわじわと効き目が出てくるもので、会議の運営そのものに直接的に効力を発揮するものではなかったのである。

実は、以前から気になっていたのだけど、ファシリテーション(facilitation)というビジネス用語がある。
これは会議を含むタスク指向のコミュニケーションを円滑に進め、問題解決や合意形成を促進するための技術や方法論のことである。
要するに、話し合いをうまく仕切り、議論を誘導し、参加者の意欲を向上させる調整役がやるべきことや必要なスキルをまとめたものである。

さらに、議論の流れや会議の雰囲気を可視化するグラフィックファシリテーションという手法もある(参考)。
このグラフィックファシリテーションを生業とするグラフィックファシリテータという専門家もいるらしい。
グラフィックファシリテータは会議を傍観しながら自分が感じたことを文字やイラストにして、壁に貼られた大きな紙に延々と描き続けていくらしい。
参加者はときどきその絵を見て、これまでの流れや今の状況を雰囲気を感じ取ったり、イラストを見てなごんだりしているらしい(いわゆるアイスブレイカーのようなものだろうか)。
また、会議終了直後にその絵を参加者全員で振り返って、グラフィックファシリテータがなぜそのような絵を描いたかを説明していくそうだ。

単なる文字の羅列より、ところどころにイラストがあった方がわかりやすい(ような気がする)し、巧みな色使いで会議の盛り上がり(発言者の熱意)が感じられたりする、というのはよくわかる。
また、会議の参加者の多くは、議事録はあまり読む気にならないが、グラフィックファシリテータの描いた絵は見て面白いし、記憶に残りやすい、という感想を持つらしい。
これはその通りなのかも知れないが、本当に議事録より絵の方が役に立つのだろうか。
文字ばかりの本より漫画の方が一般に読みやすいし、(マルチモーダルだから)記憶に残りやすいのは確かなのだと思うけれど、言葉として表現されたものを単純な絵にすることによって失われてしまう内容はかなりあると思う。

実際、該当する会議の参加者でない僕が、グラフィックファシリテータの描いた絵を見てもどうもピンとこない。
つまり、議論の深い内容がまったく伝わってこない。
その要因は、グラフィックファシリテータが必ずしも議論の専門的内容に精通していないため本質的な意味的内容を可視化できないことや、会議の参加者以外にはその会議の臨場感などの文脈が絵だけではあまり伝わらないため、描かれた絵と会議の文脈をうまく結び付けることができないためであろう。

いずれにしても、グラフィックファシリテーションは、議論を再利用するためのコンテンツ化というよりも、会議の運営そのものに効力を発揮する、ある意味、その場限りのツールなのだと思う(無論、会議の参加者にとってはそのときの記憶の想起を促すものにはなっていると思うが、長い時間の後に詳しい内容を思い出すことはおそらくできないだろう)。

僕たちのツールに欠けていたのは、まさに、この「会議の運営に直接的に効力を発揮する」機能である。
実は、そのような機能がまったく存在しなかったわけではなく、たとえば、参加者が直前の発言に同意しているかいないかをリアルタイムに表示する仕組みや、ある意見に賛成か反対かをその場で投票してすぐに結果を表示する機能などが実装されていた。
問題は、それらがほとんど使われておらず、通常の会議の運営にあまり貢献していないことである。

そのような機能が有効に活かされていない理由は、僕たちの会議にファシリテータがいないため、議論を鳥瞰し、それらの機能を使うべきタイミングを見極めて、使用を促すような人がいないためだろう。
ゼミでの発表者がファシリテータにもなれるとよいのだけど、説明と質問への回答で一杯一杯で議論の調整にまで注意を働かせる余裕がないのだろう。
あるいは議事録を作成している書記がそうなれるとよいのだけど、これも発言内容を要約したテキストのタイピングで一杯一杯のようである。
では、責任者である僕がやればよいのかも知れないが、議論の内容に集中しているので、やはりメタ的な調整は困難である。
それに、機能を使うべきか否かは学生たちに自分で判断して欲しいので、内容以外のことについてはできるだけ黙っていることにしている。

そもそも、ファシリテータなどいなくても参加者の自発的な努力でよい議論ができるようになるべきだろう。
意欲はあるけれどスキルが足りない人のためにテクノロジーが機能するべきである。

つまり、僕らが作るべきものは、誰にでもファシリテーションができるようになるための支援技術なのである。

それで、最近、僕のいる研究室の学生たちが作っていたものは、議論の構造の可視化(ある発言がその前のどの発言と関係しているかをグラフ化したもの)および自動的に作成されたそのグラフを発言者がリアルタイムに修正できる仕組みと、会議中に過去の議論の内容を振り返るための検索およびその発言のビデオ再生を行う仕組みである。

この議論の構造化は僕たちのオリジナルの技術である。
これはもともと、議論コンテンツを効率よく閲覧するために、議論のまとまり具合や要点を機械的に調べることを目的に考案・開発されたものである。
そのため、基本的には、コンテンツが作成・共有された後に初めて利用されるものであった。
しかし、もしこの構造化や可視化が会議中にも効果があるとしたら、ファシリテーションに使えるかも知れない。

会議中に以前の議論を振り返るための新しい仕組みは、会議の運営に直接的に貢献すると期待される。
これは、過去の議論を発表スライド、書記によって記録された各発言(発言者名と複数のキーワード)、ビデオ(および発言テキスト)を見て振り返るものであるが、特徴的なのは参加者全員で協調的に検索や選択を行うことである。

これは、一人の記憶だけを頼りにして、短い時間内に参照すべき内容を見つけ出すことが困難な場合に有効である。
ビデオを見れば誰が何を言ったのか明らかになるので、結論や背景が曖昧になってしまった状況を打開することができる。
しかし、過去の内容の確認ばかりに時間を使ってしまったら、とても創造的な会議はできないので、振り返りに使える時間はかなり限られている。

そこで、僕たちの考えた一つのやり方は、メインスクリーンに過去の発表のスライドサムネイルを複数表示して、参加者がポインタで指して適切なものを選び、そのスライドに関して行われた議論の構造を可視化して表示し、さらに、議論中の発言をビデオで視聴する、というやり方である。

僕たちのミーティングでは、メインのプロジェクタスクリーンとサブの大型ディスプレイを用いており、振り返りのフェーズでは、メインスクリーンに以下の図のような、ポインタで指しながらスライドや発言内容を思い出していくためのインタフェースが表示される。

dr_main.png

また、サブディスプレイの一部には以下の図のような、メインスクリーンで選択した発言を再現するビデオと書記が入力したテキスト情報が表示される。

dr_sub.png

この仕組みによって、過去のスライドや発言をざっと見聞きすることで、これまでの話の流れを思い出して、過去を踏まえた、よい議論をしようということである。
過去の発言が現在の議論の直接的なきっかけになっていることが確認できたら、複数の議論が自動的にリンクされるため、後で、結論に至ったプロセスを詳細に調べたいときに有効であろう。
しかし、これだけではまだ足りない。
過去を確認できる仕組みは、参加者の議論スキルを直接的に向上させることには貢献しないからである。

よって僕たちの会議革命はさらに続くのである。

投稿者 nagao : 22:36 | トラックバック

2009年03月18日

知能メカトロニクスへの接近

前回のエントリーで触れた情報処理学会全国大会で、パートナーロボット(日常生活において人間の支援をするロボット)に関する特別セッションが行われ、その中でメカエレキソフトという奇妙なキーワードが使われていた。
また、機械工学の分野では「ITとRTの融合」というスローガンが掲げられていて、今月の24日に神戸大学でシンポジウムが行われるらしい。
ここで、RTとはRobotic Technologyつまりロボット技術のことである。

要するに、情報系の研究者も機械系の研究者も共に、情報技術(特に、人工知能)と電子制御機械技術(主に、ロボット)を統合的に発展させる必要があると考えている、ということだろう。

これには僕もまったく同感である。
ただ、僕が期待しているのは、ロボティクスではなくメカトロニクス一般である。

メカトロニクスとはメカニクスとエレクトロニクスの合成語である。
つまり、機械系と電子系を統合するシステム(つまり、電子制御の機械)のことである。
これは、現在、実際に世の中で稼働している機械のほとんどを指している。

そして、知能メカトロニクスは、電子制御の機械を知能化する(情報技術によってより知的にする)技術である。
物理的な機械を知能化する典型的な例は、ヒューマノイドに代表される知能ロボットであるが、単純に、知能メカトロニクス=知能ロボティクスだと認識されると、視野を狭くする恐れがある。
たとえば、自動ドアやエアコンの風を人のいるところに向けるシステムをロボットだと認識する人は少ないと思うが、これらは情報技術と電子制御機械技術が統合されて初めて実現する(あるいは実現が容易になる)ものである。
さらに、自動ドアとエアコンを連動させると、それぞれをより高度にすることができる。

機械の知能化は、当然ながら実世界のセンシング(知覚)の高度化とネットワーク化を含むので、複数の機械が実世界の認識と通信機能を持つことで初めて可能になるアプリケーションが考えられる。
知能メカトロニクスの典型例は、分散化されたセンサーシステムにアクチュエータ(駆動系。アームロボットのような複雑なものでも、車輪のような単純なものでもよい)を統合したものである。

人工知能の目標を、高度に自律的な知能(および身体)の実現とすることはわかりやすいけれど、僕が考える人工知能のより重要な目標は、人間そのものを強化(あるいは進化)させる効果的な手段を実現することである。
そのためには、人間をシステムの中心に置き、人間を取り囲む環境をより知的で高度にすることを考えるべきだろう。

僕が考える知能メカトロニクスとは、ユーザーを中心とした、物理的・情報的環境を拡張・強化あるいは知能化するための技術およびその研究領域である。

そして、このブログでは何度も取り上げているが、知能メカトロニクスを具体化するために、僕たちは、ネットワーク化された個人用の知的な乗り物を研究開発している。

移動体を知能化すること自体は、かなり以前から行われており、実用化も進められている。
たとえば、自動車向けに開発されているプリクラッシュセーフティシステムである。
これは、道路走行中に前方の車両に衝突しないように自動的にブレーキをかけたり、衝突時の人間にかかる衝撃を弱められるように自動的にシート(主にヘッドレスト)を調節するものである。
このようなシステムの延長線上に、すべての移動体を自動走行させてネットワークで情報を管理し、事故を未然に防ぐシステムが考えられる。

ネットワーク化され情報共有が可能な乗り物を、個人の行動支援のレベルまでブレイクダウンして、人間の身体と知能を拡張するシステムとして乗り物を再考したのが、僕たちの研究している個人用知的移動体(ATと呼ばれている)である。
ATは、現在まで、目的地への自動走行、人間を含む障害物回避、対象物の認識とそれへの誘導、人間の自動追尾、複数台の連携走行と衝突回避、などを可能にしてきた。
もちろん、環境側にもいくつかの仕掛けが必要であるが、ATが今できることが何なのかだいぶわかってきた。
やはり、ソフトウェアだけでなくメカやデバイスを一緒に考えると、発想がかなり広がっていくことを実感できた。
しかし、人間の感覚・思考や運動の柔軟さにはまだまだ遠く及ばないので、人間の知能と身体の拡張のためには多くの研究が必要だろう。
とても面白いテーマだし、メカやデバイスに詳しくなくても手探りで何とかやっていける研究なので、できれば多くの人に興味を持ってもらいたいと思っている。


ところで、最近、つくづく日本人の発想力はすごいなあと思ったのは、「ライドバック」というアニメを偶然見たときである(どうやら、これは名古屋では放映されていないらしい)。
これは、バイクを搭乗型ロボットに進化させた乗り物(その名前がライドバック)が主要な舞台装置となっている物語である。

ライドバックには2本の腕が付いていて、2個の車輪を支えるフレームが足のように動かせるようになっている。
そのため、何かをつかんだり、ジャンプしたりできる。
バイクがロボットに変形するシステムは、かなり以前からアニメや特撮番組の世界ではいろいろあったけれど、ロボットに変形するのではなく初めからそういう乗り物(ただし、フレームが可変なので形態は変化する)にして、日常生活にほぼ定着している設定にしたところがとても面白い(ちなみに、劇中の年代は2020年だそうである)。

実は、僕もATに腕をつけたり、ジャンプできるようにサスペンションを工夫することをずっと考えていた。
さすがにライドバックのような乗り物は兵器としても使える(劇中では画期的な戦術兵器として扱われている)ため、実際に開発すべきだとは思わないけれど、乗り物が搭乗者をさまざまな危険から守るために、何かにつかまったり飛び上がったりする仕組みを持つのはとても有効だと思う。


そんなわけで、僕が最近ずっと考えている、人工知能研究の新しいステップとしての知能メカトロニクスについて、ATに関する研究活動を例に挙げて、詳しくお話しようと思っています(ただし、ライドバックについては触れません)。
ご興味のある方は、以下の研究会に奮ってご参加ください。

情報処理学会 第155回知能と複雑系研究会

2009年3月20日-21日
会場:公立はこだて未来大学 593教室
会場へのアクセスは
http://www.fun.ac.jp/acces/index.html
を参照してください。

テーマ「人工知能がこれから目指すべきもの」

3月20日
10:00 - 11:00
中島秀之(公立はこだて未来大学)
知能への進化論的アプローチ
11:00 - 12:00
片桐恭弘(公立はこだて未来大学)
文化の計算理論を求めて

14:00 - 15:00
小野哲雄(公立はこだて未来大学)
HAIによる環境知能の実現へ向けて
15:00 - 16:00
橋田浩一(産業技術総合研究所)
知識循環と持続可能なサービスの設計

3月21日
10:00 - 11:00
大沢英一(公立はこだて未来大学)
複雑ネットワークからの構造情報抽出
11:00 - 12:00
長尾 確(名古屋大学)
知能メカトロニクスへの接近 - 個人用知的移動体を例にして -

14:00 - 16:00
パネルディスカッション(パネリストは講演者全員)

これらの講演やディスカッションはビデオ撮影をして、後日ネットで公開する予定です。
そのときは、このブログでもご紹介します。

投稿者 nagao : 00:50 | トラックバック

2009年02月28日

フォーカル・ポインタ

複数の人間が、自然に同じところに注目するような点をフォーカル・ポイント(focal point)と呼ぶ(注視点(focus of attention)とも呼ばれる)。

たとえば、川で隔てられた2つの街があって、その川には一本の橋がかかっているとする。
その地図を複数人に渡して、「もし突然、2つの街のどちらかにいることがわかっている複数の友人と待ち合わせをすることになったとしたら、どこで待ち合わせをしますか?」という質問をすると、大部分の人は橋の両端のどちらかの場所を示すらしい。
それは、2つの街のどちらにいるかわからないから、結局行き来しなければならなくなると思うので、それなら橋のどこかで待っているのが妥当だし、橋の中のどこかよりは特徴のあるところで待つのがよい、ということらしい。
機能的な側面と視覚的な側面の両方を考慮しているようだ。
このような場所は地図上のフォーカル・ポイントとなりうる。
ちなみに、この問題に関しては、今はみんなケータイを持っているのだから、連絡を取り合って適切な場所で待ち合わせをすればいい、という意見もあるだろうけど(僕はケータイを持っていないのでこのやり方だと仲間外れになってしまう)。

僕は、このフォーカル・ポイントの性質を会議でのプレゼンテーション(およびその後の検索)に応用できないものかと考えている。
つまり、スクリーンに投影している資料の中で多くの人が注目する(してしまう)点を見つけて、その点に関するトピックを集中的に議論すると、効果が上がるのではないかということである。
視線認識でもやらないと誰がどこを注目しているかわからないのではないかと思われるかも知れないが、僕たちのミーティングでは参加者全員がポインタ(つまりWiiリモコン)を持っているので、要所要所でポインタを使って自分の注目しているところを示す、という手がある。

そして、複数人の視点が集まっていることをわかりやすくする仕組みとして考えたのが、合体ポインタである。
他の参加者の注目しているところに自分も注目していることを示すために、ポインタを合体させて、より目立つポインタに変化させる(少し派手な色になるとか、サイズが大きくなるなど)のである。
ポインタを合体させる操作は、ポインタを重ねてボタンを押すだけである。
ポインタを分離させるときは、もう一度ボタンを押せばよい。

合体に参加しているポインタが多いほど、アピール度はより高くなっていく。
ポインタの数が参加者の半数を超えた場合に、合体ポインタの指す場所は、フォーカル・ポイントとして記録される。
会議後に、ファーカル・ポイントの存在しない資料は重要ではないとして、会議資料のエッセンスが自動抽出される。

ファーカル・ポイントを示しているポインタをフォーカル・ポインタと呼ぶ。
フォーカル・ポインタとなった合体ポインタは、合体に参加しているすべてのポインタの移動ベクトルの平均値によって位置が決まる。
つまり、合体ポインタの参加者全員が異なる方向に動かそうとするとポインタはほとんど動かない。
そのストレスから、合体を解除して、他の場所を指すものが続出して、その結果、最初とは異なる場所にフォーカル・ポインタを形成することもある。


このようにファーカル・ポイントは機械的に決まるのではなく、複数参加者の自発的行為から発現する一種の集合知によって決まるのである。

このフォーカル・ポイントが本当に議論の効率化に貢献するのかどうかは、まだわからないが、フォーカル・ポイントが見い出せないようなプレゼンテーション資料はやはりどこかがまずいのではないか、という気がする。
高橋メソッドだか何だか知らないけれど、やたらと字を大きくしてスライドの枚数を稼ぎ、インパクトを求めるあまり、きわめて断片的で文脈を捨象した情報しか表示しないやり方は僕は嫌いだけれど、書いてあることがバラバラでどこに注目したらよいのかよくわからないようなスライドもやはりダメだと思う。

一つのスライドに必ず一つのフォーカル・ポイントがあり、そこにはそのスライドで最も重要なことが書かれている、というのが理想である。
無論、その重要なことを補足する情報が、フォーカル・ポイントの周辺にできるだけ簡潔に書かれているのがよいだろう。

フォーカル・ポイントをうまく誘発できる方法がわかったら、きっと効果的なプレゼンテーションスライドの作成法や、そのスライドを使った効果的なプレゼンテーション法がわかってくるだろう。
その辺のことが明確になったら、いわゆるハウツー本でも書いてみようか。


ところで、複数ユーザーがWiiリモコンをポインタデバイスとして使えるようにする仕組みは、もともと僕のいる研究室の学生が作ったものだけど、かなりやっつけで作ってあってわかりにくいので、ソースコードを書き直して公開しようかと思っている。
ただ、これに関して引っかかるのは、プログラムを公開することで任天堂に不利益にならないか、ということである。

Wiiリモコンのリバースエンジニアリングに関するサイトはいろいろあって、僕たちも参考にしているのだけど、WiiリモコンをPCで使えるようにすることは任天堂のビジネスを拡大させることにはならないと思われる(人づてに聞いたところ、Wiiリモコンだけが売れてもあまりうれしくないらしい。まあ、当然だけど)ので、下手に煽って任天堂を怒らせ、Wiiリモコンの仕様が大きく変更されたら面倒なことになるなあ、と思っている(たいていの場合、企業がこういうことをすると、ハックするユーザーとの間でいたちごっこになる。最近このようないたちごっこが起こった例として、AppleのiPhoneに関して、App Store以外からダウンロードしたソフトウェアを実行できないようにするロック機能をユーザー側で解除するJailbreakがある)。

画期的なミーティング支援システムを僕たちが開発して、それを任天堂のライセンス付きで市販することができたら(無論、大学の研究室が直接、製品を販売することはできないけれど)、IT関連技術(ゲームではなくビジネスソフトウェア)を何でもかんでもアメリカから輸入する状況を少しぐらい変えられるのではないかと思っている。

投稿者 nagao : 11:46 | トラックバック

2009年02月14日

タイムマシンボード:進化したホワイトボード

ご無沙汰しています。
ようやく時間が取れるようになってきましたので、僕のいる研究室の最近の成果をご紹介したいと思います。

僕のいる研究室では、ホワイトボードを電子化・ネットワーク化した新しいミーティングツールとして、タイムマシンボード(TimeMachineBoard)と呼ばれるシステムを研究開発しています。
名前から想像できますように、このシステムは、AppleのMac OS X Leopardの機能の一つ、Time Machineとほぼ同じ発想に基づいています。

もっとも、AppleのTime MachineのようにPC内のデータのバックアップがメインではなく、過去のミーティングの内容を検索して、容易に再利用できるようにすることが目的です。
たとえば、以前に誰かが書いた文字や図は、ペンのストロークごとに詳細に記録されています(書いた時間、そのときのペンの色や太さ、書いたユーザーのIDも含まれています)ので、時間を遡って再現することができます。

僕たちは、まず、以下の写真のように、大型液晶ディスプレイと赤外線LEDペン(ペン先が押されるとペンのお尻から赤外線を発信するペン)およびWiiリモコンを使って、電子的なホワイトボードを実装しました。

tmb_pen1.jpgtmb_pen2.jpg

ただし、この仕組みは僕たちのオリジナルではありません。
アメリカのCMU(カーネギーメロン大学)の学生が、すでに実現して、プログラムを公開しています(参考)。
僕たちは、ペンにユーザーIDを関連付けるために、若干の細工を施しました。
これには僕らのオリジナルデバイスであるWiiリモコン用赤外線IDデコーダも利用しています。
また、頭上に固定しているWiiリモコンにACアダプタを接続できるようにしました(これで電池切れの心配がなくなりました)。

次に、ペンでいろいろなことができるようにするためにユーザーインタフェースを工夫しました。
たとえば、個人専用のWiiリモコンのAボタンを押しながら、リモコンと同じIDを持つペンで画面をタップすると、以下の図のようなメニューパレットが表示されて、ペンや背景の属性を変えることができます(これは、ペンのみ、あるいはリモコンのみを使っても行えますが、両手にペンとリモコンを持って使うのが最も効率的です)。

tmb_penpalette.jpg

ペンの属性には、機能(通常のペン、イレーサ、アンダーライナー、オブジェクトの選択・移動・拡大縮小、範囲選択とコピー)、色、サイズ、ストロークの種類(フリーハンド、直線、矢印、矩形)があります(ちなみに、ペンを通常のマウスのように使うこともできます)。
また、背景の属性には、通常のデスクトップ画面、ホワイトボード、グリッド付きのホワイトボードがあります。

ペンによる文字入力の仕組みも作りました。
これは以下の写真のような、ひらがなとアルファベットのキーボードパネルから文字をペンで選択すると、その文字で始まる言葉(漢字の場合はその読みの先頭がマッチするもの)がリストアップされ、そのどれかをペンやリモコンの十字キーで選択する仕組みです。
これは一般のキーボードに比べると明らかに遅いですが、手書き文字入力よりは速くテキストを入力できると思います。

tmb_input1.jpgtmb_input2.jpg

また、以下の写真のように、WebブラウザやPowerPointなどのWindowsアプリケーションを立ち上げておいて、ペンでその画面の任意の部分をクリッピングしてホワイトボード画面に貼ることができます。

tmb_clip1.jpgtmb_clip2.jpg

当然ながら、僕たちが以前からミーティングで使っているWiiリモコンによるポインタ機能も同様に使うことができます。
前々回のエントリー「スティッキーとアンダーライナー」でご紹介した機能は、すべてこのタイムマシンボードで利用することができます。
たとえば、スティッキー(以下の上の図)で、テキストやイメージを、タイムマシンボードに転送することができ、以下の下の写真のように、ペンやリモコンを使って表示位置やサイズを変更することができます。

tmb_sticky1.jpg
tmb_sticky2.jpg

僕たちの使っているWiiリモコンは、ポイントしているボードを赤外線IDで識別できますので、複数のボードにまたがった操作をすることもできます。
たとえば、以下の写真のように、近くのボード上の手描き図を遠くの(より大型の)ボード(この例ではプロジェクタスクリーン)に転送して表示させるような操作です。

tmb_copy1.jpg
tmb_copy2.jpg

実は、タイムマシンボードは、いわゆるグラフィックファシリテーションの仕組みを実装することを目指して設計されています。
ファシリテーション(会議を円滑に進めるためのテクニック)に関してはいつか改めて書いてみたいと思いますが、ホワイトボードをうまく使うことで、適切に議論を誘導・調整できるように、ファシリテーションとホワイトボードの活用術には強い関連があると思われます。

たとえば、以下の左の写真のように、クリッピングしたりスティッキーで転送した図にペンでマーキングしたり、右の写真のようにテキストの任意の部分にアンダーラインを引いたりしながら、説明に抑揚をつけたり、議論の流れを適切に導いていくことができるようになっています。

tmb_marking.jpgtmb_underline.jpg

近い将来、タイムマシンボードは、参加者のファシリテーションのスキルに依存せずに、システムを使っているうちに自然にファシリテートされるような会議を実現することができるでしょう。

そのために、会議におけるユーザー行動(ペンやポインタの動き、スティッキーによる文字や画像の入力と移動、背景画像からのクリッピングなど)を自動的に記録して、その時間に基づいて構造化する仕組みによって、現在進行中の会議を支援する手法を模索しています。

たとえば、過去にボードに表示した内容の一部を引用して現在の議論に役立てたり、現在のボードの内容を消去したときに、自動的に、近くにある他のボードに直前の内容をサムネイル表示するなど、記録のさまざまな活用法を実現しています。
また、音声も記録しているので、ボードに描きながら、あるいはボードをポイントしながら話していた内容をボード内容の検索と連動して再生することができます。

さらに、タイムマシンボードのコンテンツは、Webブラウザでアクセスできるようになっていますので、どこにいてもボードに書いた内容を閲覧することができます。
これはリフレクションと呼ばれる、議論内容の振り返りを促進するための仕組みです。

このように、タイムマシンボードは、従来のホワイトボードを、過去を遡って内容の一部を検索・引用できるようにすることで、時間的に拡張し、さらに、複数のボードを柔軟に連携できるようにすることで、空間的に拡張したものと言えるでしょう。

いずれは、僕のいる研究室の一つの壁全体をタイムマシンボードとして使えるようにしようと思っています。
このような壁に、僕はタイムマシンウォールという名前を付けようと思っています(そのまんまですね)。


昨年、Panasonic(旧松下電器産業)がライフウォールというコンセプトを発表したのを見たとき、僕は「この人たち、よくわかっているなあ」と思いました。
僕は、このライフウォールおよびそのアプリケーションが、近未来の情報化・ネットワーク化された日常生活環境の一例をよく表していると思ったのです(家族の見ている前で自分宛のメールをチェックするかどうかはさておき、リビングルームに家族全員が集まる機会が増えるのはとてもよいことでしょう)。
ちなみに、僕はライフウォール(Life Wall)よりリビングウォール(Living Wall。リビングルームと「生きている」という意味をかけている)というネーミングの方が合っていると思います。
将来、Living Wallに等身大の自分の映像とメッセージを残して、子供たちへのLiving Will(遺言状)にする、などのようなことも実現されるでしょう。
遺言状は別としても、若いころの父親や母親の姿やメッセージに、現在の自分が元気づけられる場面がこれから増えるのではないでしょうか(過去の自分から未来の自分に送るメッセージというのでもよいですね)。

この仕組みは、屋内の一つの壁のほぼ全域をディスプレイとして使えるようにしたもので、たとえば、テレビ電話なら等身大の相手を表示して会話ができますし(かなり親しい間じゃないとこんなことはしないと思いますが)、画面に手を伸ばすとその手の先あたりに、ユーザーごとにカスタマイズされたメニューを表示して、表示内容を操作できるようです。
また、ユーザーの顔のあたりに子画面を表示してその人に合った情報を表示することもでき、さらに、その人が左右に歩くとその子画面が人の動きに合わせてついてくる、というデモもやっていました。

ディスプレイ前のどのあたりにユーザーが立っているかどうかは、赤外線の反射を検知するセンサーを使えば簡単にわかりますし、手の動きを認識したい場合は、よくジェスチャ認識で用いられている、赤外光の反射による2.5次元の距離画像(2次元の画像にピクセルごとのカメラからの距離を加えたもの)を処理すればよいでしょう。
しかし、一般に、ユーザーを瞬時に正確に識別するのは簡単ではないと思います(ライフウォールは顔画像認識をするのだと思いますが、最初にどの程度の画像を登録する必要があるのかよくわかりません)。

僕たちが、ユーザーインタフェースデバイスとしてID付きのWiiリモコン(とLEDペン)を使っているのは、パターン認識技術によるユーザー認証がまだしばらくは実用に耐えないと思っているからです(バイオメトリクス(生体認証)を使うのならかなり精度は良いと思いますが、センサーから1m以上も離れたらうまくいかないと思います)。
また、自宅内に限定されるのならよいですが、デジタルサイネージ(電子看板)のユーザー適応のような、公共の場で個人認証を行う場合、顔やバイオメトリクスより、できれば有効期限付きのIDを使う方が、不用意にトレースされないようにするためにはよいと思っています。

それに、Wiiリモコン(によるポインタ)やLEDペンがあれば、ハンドジェスチャの認識も必要ありません。
デモでは発生しなかったようでしたが、ジェスチャの誤認識や認識遅れによるユーザー意図とのずれはきっと発生するでしょう。
少なくともタッチパネル程度の安定性がないととても実用に耐えないと思います。
ただ、一人が複数のデバイスを持つのは適切ではないと思いますので、僕は、近い将来に、WiiリモコンとLEDペンの機能を統合したデバイス(必要に応じて分離できる)を作ろうと思っています(ポインタペンという名前も考えましたが、どうでしょう)。

ところで、ライフウォールに関して、僕がすばらしいと思っているもう一つの点は、一つの巨大ディスプレイの一部を複数のユーザーでうまく使い分けているということです。
壁全体がディスプレイになるからといって、常に壁全体に何かを表示しなければならないわけではないでしょう。
必要な情報を必要な部分に表示できれば、それ以外は壁のまま(あるいは背景となる画像のまま)でよいはずです。
壁全体がディスプレイなら、そのときの気分で好きな絵や写真を好きな位置に配置できますから、最近流行りのデジタルフォトフレームなども必要なくなるでしょう(無論、壁ではなく、机の上に飾りたい場合には有用ですが)。
省エネルギーや耐久性のことをよく考える必要がありますが、そう遠くない将来に、大型ディスプレイをかなりの省電力で常時稼働させる技術が生み出されると思います(LEDバックライトや有機ELはなかなか有望ですね)。

ライフウォールで提案されているハンドジェスチャによるユーザーインタフェースが一般に普及するには、まだまだ多くの研究が必要だと思いますが(僕はペンにもなるポインタリモコンの方が早く実用化されると思っています)、人間のいるところにその人間にとって必要な情報を表示し、その人間が移動したら情報(の表示画面)も一緒に移動する、という仕組みは、結構早い時期に実用化されるのではないかと思います(大好きな人の顔や姿をいつも間近で見ることができるようになりますよ)。
屋内外のさまざまな壁がこのような仕組みを持てば、ほぼ、どこでもディスプレイが実現できるでしょう。

ところで、どこでもディスプレイといえば、頭部装着型のディスプレイ(いわゆるウェアラブルディスプレイ)も将来の実用可能性が見えてきた気がします。
これについても、また別の機会に書いてみたいと思います。

投稿者 nagao : 00:54 | トラックバック

2008年08月10日

先駆者になるために

4年ほど前に、僕たちが研究開発している個人用知的移動体ATを、アメリカのMITのある教授に見せたときにこう言われた。

「これはアナザー・セグウェイ(要するに、セグウェイの二番煎じという意味)か」

それに対して、僕は、ATとセグウェイの違い(立ち乗り用から座り乗り用への変形機能、無線による連携協調走行機能など)を説明した後で、「これはセグウェイではない。ATという新しい乗り物だ」と言った。

確かに、セグウェイに影響を受けたことは間違いない。
しかし、僕たちはセグウェイの先にあるものを作ろうとしているのであり、アナザー・セグウェイと呼ばれるようなものを作っているのではない。

しかし、トヨタが先日発表したウィングレットという乗り物は、アナザー・セグウェイとしか言いようがない。
「自分たちはセグウェイをより小さく作れます」ということを誇示したいためにこれを作ったのだろうか。

セグウェイと違って体重移動で旋回できる(さらに、両手放しでも操縦できる)と言いたいのかも知れないが、初代のセグウェイは確かにハンドルに付いている回転式のグリップを回す(バイクのスロットルと同じ要領)と旋回するダメインタフェースだったが、2世代目で改良されて、ハンドルを左右に傾けると旋回する仕組みに変更されている。

ウィングレットも、似たような仕組みではないだろうか。
つまり、中央にあるステアリングユニットと呼ばれる部分を左右に傾けることによって旋回するのではないだろうか。
そうじゃないのなら、手放しで乗るタイプでは中央の股に挟む部分はなくてもよいはずだろう。

こういうものを、日本を代表する大企業が誇らしげに発表しているのを見て、日本の企業はもう先駆者にはなれないのではないかと不安になった。

先駆者になるために必要なことは、新しい発想を持ち、新しい発見をし、新しい何かを創造することだ。
インスパイヤされたものがあるにしても、そのオリジナルなものから大きく発展させるべきである。
ほとんど焼き直しに過ぎないものを作って示しても先駆者とはみなされないし、かえって評判を下げるだけではないのだろうか。

僕は、セグウェイの示した、直感的に操縦できる小型で立ち乗り型の電動移動体というコンセプトは素晴らしいと思って、その先にあるものを見てみたいと思った。
それがATを開発した動機であり、その点では僕たちは先駆者ではない。
できれば、自動走行可能で絶対に衝突しない個人用知的移動体というコンセプトで先駆者になりたいと思っているが、全方位移動とレンジセンサーだけでそれが可能になるわけではないので、先駆者となるためにはまだまだ多くの研究が必要だろう。

インパクトの大きさが重要で、安全性をあまり気にしなくてもよいのなら、ウィングレットはもっと違うアピールの仕方があったのではないだろうか。
あれほどまでモーターと筐体を小さくできるのなら、ブーツ型の装着モビリティマシンにすればよいと思う。
手放しで乗るタイプなど、ローラースケートにモーターが付いているようなものと、走っているときの見た目の印象がほとんど変わらないのだから、筐体を2つに分割して、片足づつに固定すればよい。
2つのモーターを連動させるためには、腰にコントロールユニット付きのベルトを巻いて、ベルトから両足にケーブルを通せばよいだろう。
ついでに、ベルトにバッテリーを装着できるようにすれば、バッテリーの交換も楽になるだろう。

靴の拡張としての電動の乗り物なら、コンセプトとしてもセグウェイの二番煎じにはならないと思う。
日本では、(軍事利用のためでなく)福祉利用を目指した装着型ロボット(筑波大のロボットスーツHALやホンダの歩行アシストなど)の研究もそれなりに盛んだから、アタッチメントによる身体機能強化マシンは、結構、日本人が先駆者になれる可能性があるのではないだろうか。

平地での移動に関しては、筑波大やホンダのシステムのように人間の筋力を補強するよりも、足にインテリジェントな車輪を付ける方が効率的だろう。
僕が開発担当者なら、さらに横方向の移動も可能になるように工夫しただろうと思う(いつか機会があれば本当に実現してみたいと思う)。

前々回のエントリーに書いたような、ブラザー工業の網膜走査ディスプレイとも組み合わせれば、移動と連動した情報も提示できるし、周囲にある危険物や接近する移動体に関する情報と共に警告を与えることができるだろう。

以前に、ヤマハ発動機がスケボー型の電動移動マシン(無論、体重移動でコントロールする)を開発したときに、あまり実用性はないようだけれど面白いものを作るなあ、と思っていた(結局、製品化はされなかったようだ)。
見た目はスケボーそのものだが、さまざまなテクノロジーが組み込まれていて、操縦はスケボーとはちょっと違ったスポーツのようで、うまく走れるようになるとなかなか爽快だった。
これはほぼオリジナルな技術と呼んで構わないと思う。
しかし、ウィングレットはどうしてもセグウェイの斬新さの前では霞んでしまう。

少なくとも、あの素晴らしいi-unitを作ったトヨタが作るべきものではないと思う。
もし、ヤマハ発動機がこの手のものを開発・実用化したならば、電動バイクやスケボーを開発した経験を活かして、セグウェイとの違いを強調した、先駆的でスポーティな乗り物にすることができたのではないだろうか。

先駆的な民生用デバイスのiPodやiPhoneを日本企業が作れなかった理由は何か、などの議論はいろいろあるけれど、先駆者になって新たな市場を開拓しようとする気概が企業の経営者から失われてきたことが大きいのではないだろうか。

二番煎じでも無難なものを作ろう、面白くなくてもいいから確実に売れるものを作ろう、どんな機能が必要かはよくわからないから、とりあえず思いつくものは全部付けてしまえ、なんていう発想でモノ作りをしているのではないだろうか。

僕が日本の大企業の中で先駆者であると思っているのは、現在では、たとえば任天堂である。
僕はゲームマシンそのものにはあまり興味はないけれど、新しいコンセプトをどんどん提案して、日常的なライフスタイルにも多大な影響を与えている状況(Wiiで健康管理をしたり、Nintendo DSで読書をする、など)は、任天堂が先駆者と呼ばれるにふさわしいことを示している。

アメリカでは、たとえば、AppleやAmazonが先駆者と呼ばれるにふさわしいだろう。
Appleは、言うまでもなくデジタルデバイスのユーザーインタフェースにおける、また、Amazonは(ロングテールを活かした)オンラインビジネスにおける先駆者である。
最近、Amazonは電子ブックにおけるiPodを目指して、Kindleと呼ばれるデバイスを販売し、新たなコンテンツ流通モデル(本のダウンロードのための無線通信を無料にする、など)を運用しているが、おそらく日本では普及しないのではないかと思う。

日本でKindleと競合するのは、携帯電話の配信サービスや、Nintendo DSのDSvisionだろう。
電子ブックの専用デバイスは日本ではほとんど普及していない(参考記事)。
Kindleが(少なくともアメリカで)成功するかどうかがはっきりするにはもう少し時間が必要だけれど、Amazonにできて(任天堂を除く)日本のメーカーにできなかったことは、ユーザーの視点に立って製品を開発すること、そして人々のライフスタイルを大きく変えるほどの未来を見据えたビジョンを持って製品開発に臨むことだろう。

ところで、たとえば、任天堂がNTTドコモと組んで、Nintendo DSを携帯電話としても使えるようにしたら、iPhoneに対抗できるだろうか。
あるいは、Apple TVがWiiリモコンのような直感的なコントローラで遊べる家庭用ゲームマシンとしても使えるようになったら、Wiiと勝負になるだろうか。
そのような競合状態になったら、僕はおそらく任天堂を応援するだろう(たぶん、DSとWiiの後継機を買います。だから、DSは画面をもっと大きくして、WiiはHDMI出力とBlu-ray Discの再生を可能にしてください。お願いします)。

先駆者である企業を盛り立てていきたいと思うユーザーは多いだろう(無論、僕もその一人である)。
そして、僕はこれからも先駆者になることを目指して研究をしていこうと思う。

投稿者 nagao : 09:27 | トラックバック

2008年08月08日

トレーサビリティの恐怖

以前に、WikiScannerというツールが話題になった。
Wikipediaの編集履歴を、編集者の使用マシンのドメインや項目ごとに検索可能にするものである。
つまり、(非ログイン)ユーザーがどのドメイン(IPアドレス)のマシンでWikipediaのどの項目のどの部分をどのように編集したのかわかるということである。
それによって、そのユーザーの編集の裏にある何らかの意図を読み取ることができる。
これを見て思ったことは、これでWikipediaが荒らされにくくなるだろうということだった。

これと同様の仕組みが、2ちゃんねるなどの匿名掲示板にも適用できるかも知れない。
誰が書き込んでいるかはわからないとしても、どんな組織に所属している者が書いたのかわかれば、内容が事実かどうかの判断材料の一つになるだろう。

しかし、このような技術の先にあるものは、ネット上の個人の活動を不特定多数が容易にトレース(追跡)できるようになるということである。
それって、要するに衆人環視ということじゃないか。
WikiScannerは編集した個人を特定することはできないが、候補者を絞り込むことはできる。
そして、候補者全員に与えられる評判が、個人の行動を規制することにつながる(実際、WikiScannerでドメインごとの編集履歴が公開された結果、Wikipediaの編集をできないようにする措置が採られた組織もあるそうだ)。

僕は、この技術は作ってはいけないものの一つであるような気がしてならない。
確かに、匿名で悪さをする人はなくならないし、何らかのルールによってユーザーの行動を規制できるのならやった方がよいとは思うけれど、自分のサイトが荒らされたくないのならば、WikiScannerのような仕組みを使って組織(ドメイン)ごと吊るし上げるのではなく、そのサイトの趣旨を理解してもらえるようによく説明した上で、匿名による書き込みができないようにするべきだろう(個人情報の管理までしなければならないのはやっかいだが)。
ドメイン全体として規制するのは間違ったやり方だと思う(ちなみに、名古屋大学のIPアドレスからはWikipediaの編集ができないようになっているらしい。いつぞやの落書き事件が原因だろうか)。

ネット社会はすでに監視社会だと言っている人もいるし、クレジットカードの履歴データなどから個人の生活のある程度の部分が露呈してしまう、という危険性は以前からあった。
クレジットカードの例は、クレジットカード番号を含むデータが、クレジットカード会社や店舗などから流出した場合にのみアウトなのだけど、個人情報というのはたいてい分散しているから、断片的なデータをかき集めて分析したときに、それぞれのデータを個別に眺めていてもわからなかったことが見えてくることがある。
いわゆるデータマイニングと呼ばれる技術を使って、大量の断片的な個人情報が統合されることによって、本人しか知り得なかった(場合によっては本人も気づいていなかった)個人の特性や生活パターンなどが顕在化するのである。

この問題は、クレジットカード番号のような、個人と1対1対応になるIDがデータに含まれていなければよいような気もするが、名前や住所(の一部)や所属名など、普段あまり秘密にすべき情報だと意識していないようなものが含まれていても、個人を特定し情報を集約する手がかりになってしまう。

さらに、情報と個人を関連付ける仕事を人力で行ったとしたら、機械にはとても推論不可能な問題も解けてしまうだろう。
たとえば、mixiなどのSNSで公開した断片的な個人情報と日記から、その人間の(公開している情報には含まれていない)現住所や所属などの個人情報まで第3者によって特定されてしまうことがある。

ネット社会の恐ろしさを痛感するのは、断片的な個人情報が集約されて、その人間の他人に知られたくない側面が露呈するだけでなく、その情報が多くの人間の関心と悪意を呼び込み、当人にコントロールできない形でその個人に関する情報が永続化されてしまっている状況を目にしたときである。
個人のプライバシーに関する永続化された(多分に憶測を含んでいる)情報が、その人のその後の人生にきわめて重大なダメージを与えてしまうことは容易に想像できる。

監視社会のベースとなる技術の波及効果が、防犯などのメリットを越えて拡大されるのはさすがにやばすぎる。
人間にはある程度のプライバシーが必要だ。
他者の視線を意識しないで活動できる自由が必要だ。
たとえ、ネット上の活動であっても、知らぬ間にトレースされているなんてまっぴらだ。
だから、僕は匿名性を完全に否定することはできない(無論、場合によっては匿名性を排除することもあるけれど)。
僕は匿名で発言するのは一般に無責任になりがちなのでよくないと思っていたが、トレースされないために匿名にするのはやむを得ないと思っている。

そして、テキスト情報だけでも十分にやばいのに、さらに画像情報が追加されると、問題は格段にやっかいなものになる。

Googleが2007年から公開しているGoogle Maps Street Viewの日本国内のコンテンツが最近になって公開開始されているが、日本の都市では個人の住宅内が道路から見えてしまう場合が多いため、無許可での個人の住宅の写真撮影とWeb公開が問題になっている。
また、アメリカ版では、車のナンバープレートがほとんど読めないようになっているが、日本版では、ところどころ(すべてではない)車のナンバーが読み取れるようになっている。
コンテンツを自らの力で構築することの重要さに気づいたGoogleの姿勢は評価したいところだけれど、日本版Street Viewの大胆さと傲慢さは多くの批判を集めることになるだろう(なんと、一般の住宅の塀の高さより高い位置から撮影できるようにカメラを設置しているらしい。それが本当ならほとんど犯罪ではないか)。
日本人ってずいぶんとGoogleに舐められているのだなあ、と思う。

360度の範囲を同時に撮影できるOmniCamと呼ばれるカメラや、パノラマ写真をWeb上でインタラクティブに閲覧可能にするQuickTime VRなどの技術は10年くらい前から存在したけれど、人海戦術で複数の都市内をくまなく撮影して、不特定多数の人に公開するなんてことを本気で実現する企業が現れるとは10年前には想像すらできなかった。

僕は、以前に「体験メディアとプライバシー」というエントリーで触れたように、個人が自分の体験を記録して公開する目的のために、周囲の映像を撮影することは許されるべきだと思っている(無論、盗撮の類は論外だが)。
しかし、同時に、公開するときに他者のプライバシーを侵害する危険性を考慮するべきだと思っている。

Street Viewは撮影された日時が明記されていないので、たとえ自分や自宅などが写っていても、それがいつのことか自動的に特定できないし、解像度もそれほど高くないので実害は少ないと考える人も多いかも知れない(ただ自分や家族が写っているだけで気持ちが悪いと思う人も少なくないだろうけど)。

しかし、Street Viewが個人情報を特定する材料にされることは間違いがないし、機械的には個人の特定がきわめて困難でも、ネット上の不特定多数の人力で行われるとしたらかなりの脅威である。
自宅のガレージに停めてある車のナンバーが識別できる状態になっていれば、その車の所有者の名前を調べることができるから、その家に誰が住んでいるのか特定するのはそれほど困難ではないだろう。
実際、アメリカのプライバシー保護団体がGoogleの取締役の一人の自宅や通勤経路をStreet View上で探し当て、ネットに公開した事実があったそうだ(参考記事)。
こういうことをやられて怒らない人間はいないだろう。
Googleの経営者やStreet Viewの担当者ならそのようなことが自分に対して行われることを覚悟しているのかも知れないが、自分の家族や恋人に対して同じことが行われたら、さすがに恐怖と怒りを感じるのではないだろうか。

個人情報を特定するための断片的情報が大量にあり、それらがネットで検索して容易に検証できるようになっているのはかなり危険なことである。
個人の行動が第3者にトレースされてしまうのは、ネット上のものであろうとなかろうと、完全に防ぎきれるものではないが、とてもまずいことであることは誰にでも理解できると思う。

食品や工業製品のトレーサビリティのように、公明正大なものなら、痛くもない腹を探られるくらいなら、可能な限りネットで公開して自己防衛手段とする、という考えもあるだろう。
それができないのは、何か後ろめたいことがあるからだ、という邪推をする人も出てくるかも知れない。
しかし、それは自分で自分の行動を記録して、自分が適切であると考える範囲で公開する場合のことである。
また、自分に関するプライバシー情報のコントロールが可能である場合である(コピペによる再配布を制御するのはかなり困難だと思うけれど)。

それにしても、Street Viewによって公開される個人のプライバシー情報に関するユーザーのコントローラビリティはきわめて限定されている(たとえば、画像の削除要請を出しても、削除されるまでに数日かかるという返事だったそうだ)。
技術的に解決できる部分がどのくらいあるのか、僕にはまだよくわからない。
もしかして、アメリカやヨーロッパでは実験できなかったことを日本で実験しているのだろうか。
Googleを盲目的に信じている連中はそれなりにいそうだから、そういう連中の善意を利用して、ありのままの世界情報を検索可能にする壮大な実験に大衆を巻き込もうとしているのだろうか。

しかし、お願いだから、個人の行動を第3者がトレース可能にする技術の開発はやめて欲しい。
Street Viewは少なくとも住宅街に関する情報を削除するべきだと思う(さらに、学校(大学を除く)の周辺の画像も)。

「法律的に検討した結果、公道から撮影したものであれば、基本的には公開して構わない」(参考記事)なんてことを本気で考えているのなら、多くの良識のある人たちを敵に回すことになりますよ。
お気をつけください、Googleさん。

投稿者 nagao : 23:15 | トラックバック

2008年07月22日

完全にプライベートなモバイルディスプレイ

つい先日、網膜走査ディスプレイ(Retinal Imaging Display. 以下RID)を企画・開発したブラザー工業の人たちが僕のいる研究室に来て、このディスプレイをデモしてくれた。
RIDは、ヘッドアップディスプレイ(Head-Up Display.いわゆるVR向けのHead-Mounted Display(HMD)とは異なる)の一種で、目の近くに装着した小型デバイス(本体とは光ケーブルで接続されている)から、目に入れても安全な明るさの光を網膜に当て、その光を高速に動かすことによる残像効果を利用して、網膜に映像を直接投影するものである。

このディスプレイの最大の特徴は、装着者以外の人間には絶対に見えないことである(網膜に直接投影するのだから当然だが)。

ノートPCならともかくケータイの小さい液晶にも偏光フィルタを貼って、隣にいる人に見られないようにする人もいるくらいだから、自分にしか見えないディスプレイというのは結構需要があるのではないだろうか。

RIDに(将来的に)実用性があるかどうかを考えていたのだけど、やはり、この完全にプライベートである点を最大限に活かすべきだと思う。
僕は新幹線などでの移動中に、新聞紙を広げたくらいの大画面で作業したいと思うことが多いのだけど、メールにせよドキュメントにせよプログラムにせよ、他の人にはあまり見られたくないのである。
だから、このディスプレイがあれば少なくとも移動中は重宝するだろうと思う。

さて、このディスプレイはまだモバイル化(あるいは無線化)されていない(グリーンレーザーの関係でまだ本体を小さくできないらしい)のであるが、それにも増して重要なのは、無論、モバイルなユーザーインタフェースである。

僕は、ブラザーの人たちに対して、簡単なAR(拡張現実感)システムのデモをした。
これは、壁に設置した赤外線カメラを使って、壁に対する顔の向きや壁から頭への距離を計算して、それに応じた表示をするというものである。
また、同時に、赤外線IDによるユーザーの識別も行う。
理想的には、RIDのようなヘッドアップディスプレイを使うのがよいのだが、このときは、大型液晶ディスプレイを使ってデモをした。
壁に見立てた複数の大型ディスプレイの方に人間が近づいていくと、その人に応じたコンテンツ(デモでは、ヘッドラインニュース、地図、カレンダー)が表示され、距離に応じて詳細度を変化させる。
ニュースの場合は、離れているときはティッカーとしてタイトルが流れて表示され、少し近づくとタイトル一覧が表示され、タイトルを選択できるようになる。
さらに近付くと直前に選んだタイトルの記事が詳しく表示される。
カレンダーの場合は、距離に応じて、月、週、日(1日のタイムテーブル)という具合に情報の粒度が変化する。
地図の場合は、グローバルからローカルへの距離に応じたズーミングである。
これらは単純な例だが、実装も簡単なので、状況を限定すれば十分に実用化できると思う。
本当は、紙のポスターやカレンダーや地図(つまり、ディスプレイを装着しなくても肉眼で普通に見えるもの)に情報をオーバーレイするという見せ方にしたかったのだが、これは透過型ディスプレイじゃないとうまく実現できないので今回はあきらめた(カメラで撮影した映像に情報をオーバーレイする、ビデオシースルーと呼ばれる手法もあるが、それではちょっと見劣りする)。

ちなみに、スクロールとメニュー選択などのために、Wiiのヌンチャクをマイコン経由でモバイルPCにつないで使用した(僕はモバイルシステムの片手入力装置としてヌンチャクはなかなかよいと思っている)。

ところで、僕は、昔、島津製作所のデータグラスというヘッドアップディスプレイを使った実験をしていて、これはとても使用に堪えないと思って、研究をやめたことがある。
いわゆるメガネ型ディスプレイには将来性がないと判断したのである。
もちろん、当時のデバイスの使い勝手が悪すぎたせいもあるが、頭部に装着する透過型ディスプレイのメリットとデメリットのバランスがうまく取れそうにないと思ったからである(重い、屋外ではよく見えない、そもそも文字が読みにくい、隣の人に覗かれると何を見ているか多少なり知られてしまう、などがその主な理由であった)。
しかし、移動中に限定して(自宅やオフィスにいるときはわざわざそんなものは付けないだろう)、大画面をプライベートに見れ、しかも文字が十分に読みやすい、ということならば、是非使ってみたいと思う。

また、モバイル向けの入力装置についてだけど、前述のヌンチャクでもよいが、最近かなりの盛り上がりを見せているiPhoneのようなタッチパネルデバイスでよいと思う。
僕は、表示装置に指で触って指紋がベタベタ付くのが大嫌いなのだけど、触るのが表示装置でなければ別に腹は立たない(この件でアップルの人は「指紋が付いたら拭けばいい」と言ったらしいけど、触れる頻度と見る頻度を考えたらそんなめんどくさいことはやっていられないと思う)。
たとえば、iPodのクリックホイールに透明シートを貼ったとして、それに指紋が付くと言って怒る人はいないと思う。

タッチパネル液晶デバイスを純粋に(キーボードにもトラックパッドにもクリックホイールにもなる)レイアウトフリーの入力デバイスと考えれば、(特に珍しくはないけれど)僕にとってはかなり安心して使えるだろう(フリックとかピンチイン・アウトなんていう指操作には、僕はたいして興味がない)。

ディスプレイを頭に装着できないときは、一時的にタッチパネルをディスプレイとして利用するのはよいと思う(たとえば、メモや写真をすぐに確認したいときなど)。

文字入力に関しては、iPhoneはいろいろ文句を言われているし、そもそもメールや文書を書いたりするのにあまり向いていないのだと思うけれど、あれを単にソフトキーボード+トラックパッドだと思って使えば割とよいのではないかと思う。
指に対して、ほんの少しフィードバック(表面の微振動による触覚フォースフィードバック)を返してやれば結構ブラインドで文字入力できるようになるのではないだろうか。

さらに欲を言えば、デバイスを縦の中心線で2つに分離して、再結合して細長い形状にして(ハサミのように左右に180度開くのでもいい)、タッチパネルに両手を置いて使えるともっとよい(ただし、座っている時のみ)。
そうすればマルチタッチの特徴が最大限に発揮されるだろう。

アップルはソリッドで可動部のないものがシンプルでよいと思っているみたいだから期待できないけれど、日本人はトランスフォームするガジェットが好きだから、ウィルコムあたりが作ってくれないだろうか(そうしたら僕は絶対に買いますし、周囲の人にも全力で薦めます。ちなみに、WILLCOM D4はちょっとでかすぎると思います)。

無論、ブラザーのRIDのような装着型プライベートディスプレイがタッチパネルデバイスにワイヤレスで接続できることが前提だけど。

昔あきらめたテーマをもう一度考察する機会を与えてくれて、さらにモバイルシステムの新しい未来を感じさせてくれたブラザー工業のみなさんに感謝したいと思います。

投稿者 nagao : 23:54 | トラックバック

2008年04月13日

カジュアルな会議を支援する

ご無沙汰しています。
新学期が始まり、僕のいる研究室も7年目に入りました。
相変わらず悩みは尽きないですが、これからもがんばろうと思います。


先月、情報処理学会という、IT業界では老舗の学会の全国大会(会員なら誰でも発表する機会が与えられる会議)が開催された。
僕のいる研究室のほぼ全員がそこで研究発表を行った。
これは僕たちの毎年の恒例行事である。
この会議では、学生の発表するセッションとそれ以外の人の発表するセッションが明確に分かれていて、学生セッションと一般セッションと呼ばれている。
学生セッションの特徴は、10件程度の発表がある各セッションで最も優秀な発表に、学生奨励賞と呼ばれる賞が与えられることである。
この賞は基本的にセッションの座長によって決められる。
そのため、僕が見ていてあまり適切とは思えないものが選ばれることもあるが、たいていの座長は観客が納得できる理由で納得できるものを選出している。

今回、僕のいる研究室の学生の発表で唯一この賞を受賞したのは、「カジュアルな会議を支援する」ことに関する研究発表である。
他の学生の発表もなかなか良かったと思うのだけど、セッションのテーマと微妙に合っていなかったり、座長が研究内容とあまり関係ない基準(発表者の元気の良さ、など)で受賞者を決めていたりしていたために残念ながら外れてしまった。
それにしても、せっかく事前にアブストラクトを提出しているのだから、もう少し発表内容をよく考えてセッション構成や座長を決めてもらいたいと思うのだけど、会議の規模が大きすぎて無理なのだろうか。

さて、「カジュアルな会議」というのは、特に事前の準備をしなくても、議論したい相手が近くにいていつでも始められるときに、気軽に行うことのできる会議のことである。
このような会議で有益なツールはホワイトボードである。
だから、僕たちの考える「カジュアルな会議」ではホワイトボードを利用することを前提としている。
また、僕たちが取り組むべき課題と考えたのは、すごくいい意見やアイディアが出たはずなのに、しばらくすると忘れてしまうことへの対処法である。
たまに、ホワイトボードに書いた内容が消されずに残っていたりして、記憶の想起に役立つこともあるが、誰がどんな話をしながらそれを書いたのか、そのときに他の人が何を言ったか、などを同時に思い出すのはなかなか困難であろう。

そこで、例によって、ホワイトボードを使った会議風景をビデオに撮ることにした。
しかし、たとえビデオに撮ったとしても、必要な部分だけを見直せるようにするのは困難である。
また、ホワイトボードを電子的に記録して保存するやり方はいろいろあるが、多くの場合、時間情報が失われてしまい、書いた図と書きながら話していた内容をリンクさせる方法がない。

僕たちのやり方は、ホワイトボードでペンを使ったときのストロークごとの座標および時間情報と、ビデオ情報を組み合わせて、簡単なやり方で話の内容を思い出せるようにするものである。
そのために、会議内容の要点に印を付ける仕組みを作り、会議の直後に内容を整理する時間を設けた。
会議後に要点に印を付けていく作業を振り返り(リフレクション)と呼んでいる。
僕たちの作ったシステムは、この振り返りを楽にできるような機能を持っている。

このシステムの画面は以下の図のようになっている。

cm_gui

中央のメインウインドウには、mimioというデバイスを使ってPCに入力されたホワイトボードの状態が表示されている。
また、同じウィンドウの左側には、会議のタイムラインが表示されており、ペンを使っている時間がハイライトされている。
さらに、タイムライン上をマウスでクリックして、その時間に対して印を付けることができる。
この印(マークと呼ばれる)には、キーボードで入力したテキストと関連付けられる。
このテキスト(その入力は会議中に行っても会議後に行ってもよい)は、キーワード検索に利用される。
マーキングとテキスト入力は、ホワイトボード上の任意のストローク(の集合)に対しても行うことができる。

また、議論の切れ目(ホワイトボードの内容をすべて消した、一定以上の長さの無言時間が経過した、などの特徴のある時点)に、それまでの話題の簡単なタイトルを付けて、トピックとして登録することができる。
これは、一回の会議中に複数の話題について議論したときに、それぞれの話題ごとに整理したい場合に有効である。

このシステムの特徴は、ホワイトボード上のストロークやタイムライン上のマーキングなどがすべてビデオへのアノテーションになっている点である。
タイムライン上をマウスクリックすると、その時にホワイトボードに書かれたストロークがハイライトされ、その時間のビデオが表示される。
ビデオの再生を始めると、それと同期して、ホワイトボードウィンドウの内容が変化する。
同様に、ストロークやマークを選択してビデオを視聴することもできる。

このシステムを使って会議の内容を思い出そうとするときは、まず以下の図の下の方にあるテキスト入力フィールドに適当なキーワードを入力して、マッチしたマークからホワイトボードの記録やビデオを見ることになる。

cm_search

あるいは、この図の左に示されるようなタイムライン上に一覧表示されるマークを順番にクリックして、関連付けられたテキスト、ストローク、ビデオを見ていくことで、効率よく会議の内容を思い出せるだろう。

僕たちが次にやりたいと思っていることは、このシステムを使ってカジュアルな会議のログを収集して、グループの知識活動に有効に活用することである。
雑談の延長のような会議で出たアイディアはたいていすぐ忘れてしまうし、同じような図を書いて同じような議論をすることは結構ありそうなことなので、過去ログから図やアイディアを検索して、引用したり改良したりして、以降の活動に役立てることができるだろう。

世界中のカジュアルな会議がネット上で永続化され、誰かが思い付いたけど発展させられなかったアイディアを、時間を越えて、他の誰かが続きを考えて具体化・実用化する、なんてことが頻繁に起こるような時代が来るとよいと思う。
僕のいる研究室では、前回のエントリーで書いたように、ゼミでのディスカッションをコンテンツ化して公開しているが、たいていの場合、その内容は後に発展され論文としても発表しているので、アイディアが埋もれてしまうことは少ないが、プロジェクト単位で行っている小規模のミーティングでは思い付いて議論しても結局実現されなかったアイディアが非常に多い。
やろうと思っていて単に忘れてしまっただけなら、上記のシステムを使って思い出せばいいが、思い出せるのにやろうと思わないのならば、そのアイディアは無駄になってしまう。
だから、無駄になってしまうくらいなら誰かに譲ってしまおうと考えてもおかしくはないだろう。
それに、きっとそのころには、知的財産権に関する考え方も今とは変わっているだろう。

こんなこと考えたんだけど、この後どうしたらいい?、と未来の誰かに問いかけるのである。
それに対する返事を聞くことはできないかも知れないけれど、未来に向ってアイディアを発信することで、たとえそれが未完成のものであっても、自分の考えが未来の誰かの発想に影響を与えることができるのである。

投稿者 nagao : 13:43 | トラックバック

2007年12月17日

マルチディスプレイ対応のWiiリモコン

構想から半年にしてようやくWiiリモコン用のオリジナルデバイスが完成しました。
赤外線にIDがエンコードされた新型センサーバーと、Wiiリモコンに装着する赤外線デコーダです。
赤外線デコーダは、Wiiリモコンの拡張コントローラとして動作します。
以下の写真をご覧ください。
上が新型センサーバー(上から2点バージョンと1点バージョン。電源はUSBから取ります)、下がデコーダ付きリモコンです。

led_devices.jpg
wiiremote_irdecoder.jpg

デコーダのケーブル(Wiiのヌンチャクのものを切ってコネクタを付けたもの。ヌンチャクと接続して使うこともできます)が筺体の横に接続されている理由は、リモコンを持つときにケーブルが邪魔にならないようにするためであり、またデコーダの後方には新しいセンサーをマイコンに接続できるようにするための拡張用コネクタが付いているからです。
デコーダの基板は以下の写真のようになっています。
ちなみに、マイコンはATMEL社のATMEGA168を使っています。

decoder_device.jpg

これを使うとWiiリモコンを複数のディスプレイに対応させることができます。
つまり、1つのリモコンで複数のディスプレイ上のオブジェクトを操作できるということです。

たとえば、僕たちの開発したWiiポインタというソフトウェアでは、Wiiリモコンを任意の画面に向けるだけで、向けた画面上に点を表示してリモコンの向きに応じて移動させ、PowerPointなどの任意のWindowsアプリケーション用のポインタとして利用することができます(ただし、マウスカーソルとは異なり、そのままではクリック等はできません)。
前回のエントリーで紹介したゲームはこのソフトウェアを利用しています。
ちなみに、リモコンの十字キーを使って、点の大きさや色を変化させることができます。
また、Aボタンを押しながらリモコンを動かすと、点の移動の軌跡が表示されるため、線を描くこともできます。
以下の写真は、大型液晶ディスプレイ上で楕円を描いてみたところです。

single_display.jpg

Wiiと違って、ポインタの回転を考慮しないので、赤外線の光の点は1点だけで十分です(上記の1点バージョンのセンサーバーを利用します)。
また、以下の写真のように、1個のLEDデバイス(センサーバー)を2台のディスプレイの中間付近に置いて、2つのディスプレイを連続的にポイントすることができます(無論、それぞれのディスプレイと接続しているPCはネットワークでつながっていないとダメです)。
この写真では、2つのディスプレイにまたがった楕円を描いています。

double_display.jpg

ディスプレイが隣接していない場合は、赤外線LEDのIDを使って識別できますから、複数のディスプレイをどのように配置するかは自由です。
つまり、ディスプレイをどのように配置しても、同じリモコンでそれらの画面をすべてポイントできます。

以下の写真では、LEDはすべて前方に向けられていますが、それぞれのLEDの向きを左右に少し変えられるようになっているため、ディスプレイ周辺のかなり広い範囲からポイントできるようになります(ちなみに、ユーザーがディスプレイから5m程度離れても大丈夫です)。

led_subdisplay.jpg

ポインタにはユーザーID(番号)が付与されています。
これによって、複数ユーザーのポインタを識別して、誰がどこをポイントしているのかを自動的に知ることができます。
ちなみに、Wiiでは同時に操作できるのは4人(4リモコン)までですが、僕たちのソフトウェアではマシンパワーが許す限り何人でも同時に操作できます(一応、12人までは実際に試してみました)。

もちろん、ポイントするだけでなく、プログラム次第でマウスのように画面上のオブジェクトを操作することもできます。
ただし、複数のユーザーが同時にリモコンを使うため、通常のマウスとは異なる制御が必要です。
つまり、誰が今、画面上のオブジェクトを操作する権利があるのかを決めないと、ある人のやろうとしたことを別の人がキャンセルしてしまうことなどが発生して、意図した通りに操作できなくなってしまいます。
その操作権を決めるやり方は、アプリケーションを開発する人が自由に決められるように、全員のWiiリモコンの状態をすべてモニターしてフィードバックできるようなAPI(Application Programming Interface)を用意しています。

特にJavaプログラミングに精通している人なら、簡単にマルチディスプレイ・マルチポインタのアプリケーションが作れるでしょう。
前回のエントリーの「ポイスタ」のような(あれはマルチディスプレイではありませんでしたが)、大型スクリーンやマルチディスプレイを利用した多人数参加ゲームなども、僕たちの仕組みを使えば比較的簡単に作れます。

Wii(あるいはそれに類するマシン)はきっと家庭の中だけでなく、駅や大型店舗などの公共の場でも使われるようになると思います。
そして、いつか自分専用のポインタ型リモコンを持ち歩く(ケータイに組み込まれるのでもよいですが)ようになるのではないかと思っています(利用する前にユーザー登録をする必要があると思いますが)。

さて、僕は、Wiiのテクノロジーをベースに作られた、このマルチユーザー・マルチディスプレイ・ダイレクトマニピュレーションの仕組みが一般に利用できるようにしたいと思っています。
そのために、ここでご紹介したデバイスが量産され安価で販売されるようになるとよいと思います(今のところ、LED装置とデコーダを合わせて1セット9600円もかかるんですよ。高すぎますよね)。
もし任天堂がその気になれば、赤外線デコーダをWiiリモコンに組み込むことなど造作もないでしょう。
Wiiを複数台購入している人(ちなみに僕のいる研究室には3台あります)もいるでしょうから、複数のWiiを連携させて、それぞれの表示画面を連動させたり、同じリモコンがどちらのWii用にもシームレスに使えるような仕組みを提供するのも悪くないと思います。

僕はこの技術を広く普及させて、複数の人が複数のディスプレイ上での操作を連携させて、コラボラティブに面白いこと(絵を描いたり、音楽を演奏したり、動画を編集したり、など)をやっていく、という文化を浸透させたいと考えています。
うまくいくとよいのですが、どうなることやら。
これを読んでいる方からのアドバイスなどがいただけるとありがたいです。
どうぞよろしくお願いします。

投稿者 nagao : 00:08 | コメント (285) | トラックバック

2007年12月15日

ポインタ危機一髪

僕のいる研究室で制作された、多人数が同時にWiiリモコンを使って行うゲーム「ポインタ危機一髪(別名、ポインタスター。略称、ポイスタ)」をご紹介します。
名前からおわかりのように、これは「黒ひげ危機一発(なぜ危機一髪じゃないの?)」という有名なおもちゃにインスパイヤされています。
Wiiは4人まで同時に遊べますが、このゲームは基本的にいくらでも人数が増やせるようになっています。
ただし、同時に遊べる人数はマシンパワー(および画面の解像度)に依存します。

以下の写真は、研究室のメンバー12人が一緒に遊んでいる様子です(写真には一部の人しか写っていません)。

poista-playing.jpg

実は、これは多人数が同時にポインタを使って画面上で操作するとどのくらい迷惑なことになるか(自分のやっていることの邪魔になるか)を調べるための一つの実験なのです。
それぞれのポインタは色分けされており、場合によっては移動の軌跡を残すことができるので、自分がどのポインタを操作しているかを知るのは比較的容易です。

このゲームの操作法はきわめて単純です。
自分のポインタで画面上のカードのどれかをポイントしてAボタンでクリックするのみです。
同じカードをもう一度クリックすると、選択が解除され、他のカードを選択できるようになります。
ただし、他の人がすでにポイントあるいは選択しているカードは選択できません。

全員がカードを選択した後に、一斉にすべてのカードが裏返って、当たりとはずれが判明します。
当たりを選んだポインタは生き残り、はずれの場合はそれ以降ゲームに参加できなくなります。
1ラウンドにつき3人ずつ脱落していき、最後の3人から1人だけ生き残ります。
その人が優勝です。

たとえば、最初は、以下の図のように、参加者全員分のカードが選択可能で、ポイントするとカードにポインタと同じ色の枠線が付きます。
各ポインタには、IDが関連付けられています。
IDからそのポインタ(リモコン)の所有者情報を検索することができます。
以下の図の画面の右側には、参加者のIDと名前が表示されています。

poista_1.jpg

ポイントしながらAボタンを押すと、選択できます。
このとき、以下の図のように、カードの画像が変化します。
これは早いもの勝ちで、先にポイントした人が優先され、他の人が同じカードをポイントしても選択できません。
先にポイントした人がポインタを移動しない限り、他の人には選択権がありません。
また、選択した後は、ポインタを移動しても選択が解除されません。
同じ人が同じカード上でもう一度Aボタンを押すと、選択は解除され、さらにポインタを移動すると、他の人が選択可能になります。
以下の図の画面の右側には、カードを選択した参加者のIDと名前がイタリックで表示されています。

poista_2.jpg

全員が選択し終わると、以下の図のように、カードが裏返り、当たりかはずれかがわかります。
この図から、どのカードがはずれかすぐにわかりますよね。

poista_4.jpg

以下の図のように、はずれカードはそれ以降デッドカード(つまり、存在しないもの)になります。
はずれのカードを選んだ人は、以後、このゲームの続きに参加できなくなります(右側のリストから名前が減っていることがわかると思います)。
はずれた人のポインタは、一応表示はされますが、カードをポイントしても枠線が表示されず、選択もできません。

poista_5.jpg

その後は同様に、参加者が減り、デッドカードが増えていきます。
最終ラウンドは、以下の図のようになります。

poista_10.jpg

結果は、以下の図の通りです。

poista_11.jpg

これで、優勝者が決まりました。
優勝者は、以下の図のように、ダイアログウィンドウとファンファーレによって称えられます。

poista_12.jpg

このように、大型ディスプレイ上で多人数が同時にポインタを操作し、各ポインタにはそのユーザーの情報が関連付けられており、全員の操作履歴をリアルタイムに蓄積して利用する、というソフトウェアが作成できました。

今回の例はゲームでしたが、このソフトウェアはポインタを使って操作するさまざまなアプリケーションに適用できます。
また、ユーザーが使用するデバイスはWiiリモコンですが、カメラと無線機能(できればBluetooth)を持った携帯型デバイスなら同じ機能のものが作れるでしょう。
ちなみに、プログラミング環境はJavaです(一部、Bluetoothドライバとの連携のためにC++を使っています)。

僕たちは、このリモコンとポインタの仕組みを研究室のメンバー全員が参加する会議に応用しています。
これについては別の機会に詳しく書いてみたいと思います。

マルチユーザーで大型ディスプレイ上のダイレクトマニピュレーションを行うアプリケーションにご興味のある方はぜひご連絡ください。

投稿者 nagao : 12:09 | コメント (333) | トラックバック

2007年12月02日

コンテンツ・フューチャー(その1)

最近、「CONTENT'S FUTURE ポストYouTube時代のクリエイティビティ」(小寺信良・津田大介著 翔泳社 2007)という本を読んだ。
この本は複数の人との対談集なので、いろいろな人のいろいろな意見がざっくばらんに入っていて、主張点が分散してしまい、内容が記憶に残りにくい。
そこで、この本を僕なりに編集し直して、何が言いたいのかもう少しわかるようにしてみようと思う。

この本はコンテンツの未来を語るというより、コンテンツの今(つまり現実)を語っている部分が多い。
実際にコンテンツの制作に関わっている人を多く集めているのだから当然だけど。

この本は今後現れるであろう新しいタイプのコンテンツについてはほとんど何も言っていない。
多少思いつき程度で語られているものはあるけれど、実は今のテクノロジーですでに実現されているもので、未来のコンテンツと言えるほど発想が飛躍しているものではない。


まず、僕が気になった一つ目の意見はこれ。

「ネットの世界は、PCなどの技術モデルは「メイド・イン・USA」であり、グーグルやiTSなどのビジネスモデルもメイド・イン・USAであり、あと残っているのはコンテンツモデルだけなんですよ。 これを探すことが、日本に残されたただ1つのものだと思う。 これはテレビ局だけの話ではなくて、「それを探そう」って決意することが必要。 そうじゃなくて「儲かる方法は何だ?」ってやっていたり、「アメリカに追いつこう」「アメリカはこうしているぞ、日本はどうしてならないんだ」みたいな議論では、絶対に映像コンテンツの可能性の話には行かないっていう気がするんですよ。」(014ページ上段)

これはテレビ局の人からの意見で、僕はもっともだと思うけれど、残念ながら、新しいことを試そうとするときにはアメリカの方が都合のよい社会システムになっているようだ。
たとえば、この本の著者の一人はこんなことを言っている。

「別に僕はフェアユース信奉者じゃないけど、コンテンツ産業がどのようにして大きくなっていったかということを歴史的に見ていくと、やっぱり重要な部分でフェアユースが関わっているんですよね。 フェアユースがある種の「バッファ」になってる。 そういうバッファを設けておくことで、実際にどうなるか何年か様子を見ようみたいなことができるわけで、とにかくパーッと出してみて伸びしろがありそうだったら伸ばして、ダメそうだったら潰しちゃえばいいじゃんという現実主義的なスタンスが取れるのが、アメリカの強さなんだと思います。 少なくとも自国のコンテンツを守るという意味において言えば、コンテンツにとってどっちが幸せかというと、僕はアメリカ型だと思うんです。 杓子定規に全部を法に照らし合わせて対処することが、コンテンツにとって幸せかどうか。 それを著作権者だけが判断するのではなく、クリエイター、ユーザーも交えて議論しなきゃいけない。」(283ページ下段)

この意見のように、確かにアメリカの強みは、最初のうちはどんな試みもそれなりに許されて、しばらく様子を見てもらえるところにあるような気がする。
そうでないと、たとえば大学院を出たばかりの人間が、独自のやり方で大企業のビジネスモデルに対抗するアイディアを実行するなんてことがそうそうできるはずがない。

一方、元官僚の人はこんなことを言っている。

「ネットワークの法体系とコンテンツに関する法体系が違っていても、それは通信と放送の区別のような二分法じゃないんですよ。 むしろネットワークの存在する部分は、通信も放送も区別なくIPに収斂していくんじゃないでしょうか。 だから僕の考えでは「IP法」みたいなものができれば、たぶん全部上手くいく。 でもコンテンツは逆にバラバラに多様化の道をたどる。 今後どんどん多様化していくものを1つの考え方にまとめるようなことはしないほうがいい。 つまり、わからない部分が多いからここ10年くらいはとにかく「暫定合意」をたくさん作っていくというスタンスでいくしかない。 それを、コンテンツに関わる人たちが了解する必要があるんですね。 コンテンツ政策は、「暫定了解・暫定合意の10年」という期間に入ったと思っています。 (中略) 半年に1回でもいいからとりあえずその場その場で暫定合意を形成して、その合意も技術の変化や、ビジネスの立ち上がりなどに応じて変えていくということをしないといけない。 ここしばらくは技術やビジネスの進化が速いんで、霞ヶ関で集まってみんなが合意してルール決めて、という従来のやり方ではコンテンツを取り巻く「現実」に追いつかないですよね。」(231ページ上段)

こういうよくわかっている人がいるのはよいことだけど、現役の役人でいるうちに、ちゃんと内部から改革していただければ、ここまでアメリカに遅れをとることはなかったと思う。

しかし、日本のコンテンツ文化がアメリカに負けてない部分もあるという意見もある。
たとえば、次のような意見である。

「アメリカはハリウッドで今のコンテンツを制していますが、ハリウッドのモデルは、社会構造の三角形の上部、一握りの天才達がモノを作って、みんなに売るというパターンです。 ですが日本は、中間層の強さでずっとモノを作ってきたわけですよね。 だから、デジタルの力がみんなに降りてきたら、中間層が強い国は絶対に勝てる。 CGMって、そういう日本のためにあるような概念ですね。 だけど、その力を活かすためのツールは別に日本製でなくてもいい。 アメリカのYouTubeでもいいし、中国製でもいいし、イスラエルのものでもいい。 そのときどきで世界で一番良い道具を使って、コンテンツを生んでいくという方法論を曲げないことが重要だと思うんです。 (中略) 技術はずっと外のモノでもいいから、たぶん「大衆がコンテンツを作り続ける」ということが日本の強みになっているんですよ。 だから、ブロードバンドや携帯を使って大衆側が新しいコンテンツをどれだけ作っていくかという環境整備が、すごく大事だと思ってます。」(243ページ上段)

この意見もそれなりにもっともだと思うけれど、道具であるテクノロジーは使えるものなら何でもいい、という考え方はあまりよくないと思う。
コンテンツを生み出す人間とテクノロジーを生み出す人間が密に連携できるようにするほうが何倍もいい。
CGMが日本の強みだと言うのならば、それに適したオリジナルのテクノロジーを開発する努力は、コンテンツを大衆が作り出す雰囲気を作ることと同様に推進するべきだと思う。

テクノロジーはニュートラルなもので、要は使い方次第である、ということを言う人がいるけれど、僕はそうは思わない。
テクノロジーは人間の思考に何らかのバイアスを与えることができると思っているし、やりようによってそのテクノロジーを発明した人間の意志を利用者に伝えることができると思っている。
今とりあえず使えそうなものが他にないから、海外のサイトはクールだから、とかいって、FlickrやYouTubeやGoogleを使ってきた人たちは、新しいテクノロジーを生み出そうとしてがんばっている人間が身近にいても、それを軽視してしまうことになるのではないかと思う。

でも、あえて楽な道に流れてしまわないためのテクノロジーの開発というのも必要なのである。
たとえば、この本に登場する有名な文化人はこんなことを言っている。

「(編集的な視点を持つためのトレーニングとしては)マップだとか年表だとか、ディクショナリーとかを見直すとよい。 ちょっと専門的に言うとコノテーション(注:connotation。内包的意味)とかデノテーション(注:denotation。外延的意味)とかね。 そういう、意味というモノが持っている補助ツールが、実は我々を救っているんだ、ということを自覚しなくてはいけない。 ところがコピペには、そういうコノテーションとかデノテーションがない。 一回一回辞書を引くとか、年表を見るとか、漢字の部首を調べるとか、そういう面倒な手続きがなくなっているわけですよ。 実は編集というのは、半分は手続きなんです。 面倒くさいことをわざわざやることに意味がある。 コンテキストの勘がはたらくようになる。 これが編集のABCなんですね。 よって編集的な能力を増やすには、ウェブ上から取ってくるコンテンツをわざと加工せざるを得ない、編集せざるを得ないもので出しちゃうのがいいんじゃないかな。 言い換えればウェブにおけるアフォーダンスを、分化して作っておく。 編集っていうのはね。 簡単に言うと、そういう手続きとアフォーダンスの自覚から始まるんです。」(262ページ下段)

これは大衆がコンテンツを編集するスキルを身につけるべきという文脈で語られていることであるが、これにはやはり新しいテクノロジーが必要だと思う。
以前に「モノトニックな編集」について書いたけれど、僕は今あるツールで間に合わせておこうと考えると、立ち上がりは早いかも知れないけれど、本質的に学ぶべき点を見失ってしまうのではないかと思っている。
だから、急がば回れの精神で、アメリカの性急過ぎるアプローチとは別の、日本人ならではの慎重で節度あるやり方でコンテンツを作っていく仕組みを作るのがよいと思う。

でも、著者の一人はこんなことを言って、結局今のやり方を肯定してしまっている。

「物を作るプロセスってさ、いろんなものが徒弟制度で培われてきたっていうのはあるんだけど、それは昔の作り方なんだよね。 これからの新しいコンテンツ制作って、たぶんそういう過去の方法論とかセオリーと決別して、勝手に自分勝手に見よう見まねでやっていく。 そうしてなんか新しいものが出来上がっていくっていうようなプロセスになっていくような気がするんですよ。 だから僕は、「クリエイティビティは模倣から始まる」っていう論は捨ててないんだよね。 今やテクノロジーのおかげでコンテンツはたくさん手に入る、見る量も多い。 そうすると、見よう見まねだけでやってみるって人もたくさん出てくるはずなんですよ。 デッサンみたいな基本をすっ飛ばして、見ただけでそれなりのものが作れちゃう人たちが出て来て、どんどん自分でものを作っていく。 そうすると、そこからオリジナルのセオリーができるじゃないですか、過去のやり方知らないんだから。」(305ページ下段)

創造が模倣から始まるのはいいけれど、大衆がみなブリコラージュ(器用仕事)ばかりを追及してセオリーを無視していたら、コンテンツの量産にはつながるとしても、コンテンツの進化にはなかなかつながらないと思う。
やはり、量産してどんどん質が下がっていく前にやるべきことはあると思うし、それはクリエイティビティに古くて新しい(つまり、過去の伝統を継承して新しい時代に適合させた)セオリーを与えることではないかと思う。
それは、やはりコンテンツの意味を考えて、あえて面倒な編集を加えていくことではないかと思う。
僕が以前に「Webの望ましい進化」で書いたことはそういうことである。

このエントリーは次回に続きます。

投稿者 nagao : 11:33 | コメント (290) | トラックバック

2007年10月21日

トランスフォームとトランスコード

ネット上のコンテンツをユーザーの好みや視聴環境に適合するように変換することを僕はトランスコーディングと呼んでいる。
しかし、変換に関する、より一般的な用語に「トランスフォーメーション」というのがある。
あるXMLデータをHTMLコンテンツや別のXMLデータに変換する仕組み(スタイルシート言語)にXSLTというのがあるが、この最後のTはTransformationの頭文字である。
僕は、コンテンツ(というか情報一般)を機械的に変換することはその意味内容ではなくコード(符号やその並び方)を変換すること(見た目が変化するのはその副次的効果)なので、トランスコードという言い方がよいと思っている。
一方、フォーム(形や見え方)を変換することは、情報的なものよりもむしろ物理的なものに対する操作と考えるのが適切だと思っている。

つまり、トランスフォームとは物理的な変換あるいは変形である。
これからの機械は、情報処理マシンとしての機能と物理的な道具としての機能(つまり人間の身体性とよくマッチすること)の両方を考慮したものになるだろう(携帯電話などはすでにそういう機械であるが)。

ユーザーの目的や状況に応じて、形状がトランスフォームされ、情報がトランスコードされるのがよいだろう。
トランスフォームはトランスコードに影響を及ぼし、またその逆も発生する。
たとえば、傘は雨が降っているときに開くものであるから、状況に依存して変形するものと言える。
また、雨の日は自分の方向に向かってくる人や車があるのかどうか、また、目の前の信号が今どんな状態か、などがわかりにくいので、傘の内側にそれらの情報を表示するとよいだろう。
これは、人によってわかりやすい表現法があるはずだから、情報をユーザーに合わせて変換する必要もある。
さらに、傘を閉じて持ち歩いているときは、行き先の天気を気にしているはずだから、その場所の天気予報を傘の手元の部分に表示してくれるとありがたいだろう。
その場合、文字や複雑な記号を表示する必要はない。
いくつかの色のパターンだけで行き先の天気や天候を表現することは可能だろう。
傘の手元が情報端末のような働きをするならば、人間が自然にそれに注意を向けるような形状になっているとよいだろう。

このように、トランスフォームとトランスコードは連携すべきなのである。
たとえば、電子ブックリーダーはまだあまり普及していないが、それは人々の本の読み方が多様であり、機械がそれに合わせられるようになっていないからではないだろうか。
紙の本や雑誌は、折ったり丸めたり広げたり破いたり、人間の都合に応じてトランスフォームさせることができる。
このようなトランスフォームに関する柔軟性は、紙がバッテリーのいらないポータブルな表示装置であることと同じくらい重要な意味を持っていると思う。
しかし、それでも僕は、近い将来、電子ブックがあたりまえのものになって、多くの人が日常的に利用するツールになると思っている。
それは、たとえば、本を常に1万冊以上(つまり自分の蔵書全部)持ち歩き、ふと読みたくなった本の一部を簡単に検索して読めるようになると思っているからである。
やはり、iPod(人気のtouchではなくclassicの方)がそうであるように、所有するコンテンツをすべて持ち歩き、好きな時に好きなだけ消費できる、というのは何だかとても気分が良いものである(必要に応じて、ネットからオンデマンドにダウンロードすればよいではないか、と思われるかも知れないが、いつでもどこでもネットにつながるからといって、通信はタダじゃないのだから、好きな時に好きなだけ取ってくるというわけにはいかないだろう)。

そして、電子ブックリーダーは、人間の都合に従ってトランスフォームするようになるだろう。
たとえば、片手で持つときは、短冊のように細長く、両手が使える状態なら、巻物のようにするすると伸ばして、一度にたくさんの文字が読めるようにするのである。
目が疲れてそれ以上読むのが辛くなってきたら、ヘッドフォンのような形になって耳につけると、続きは音声で読み上げてくれるようになるだろう。
つまり、人間の状況に最も適した物理的形状にトランスフォームし、同時に、その形状に最も適した形式にコンテンツがトランスコードされるのである。

情報端末以外で、トランスフォームするといいなと思われるものは、やはり乗り物だろう。
変形する乗り物の元祖は2004年にも映画化されたサンダーバード(1965年にテレビ放映された人形劇)のサンダーバード1号だろうか(ちなみに、この番組中最もユニークな乗り物は2号である)。
これはロケットのような高速飛行形態からジェット機のような両翼を広げた水平飛行形態に変形する(基本的には翼を広げたり閉じたりするだけなのだが)。
また、乗り物から人型のロボットに変形する元祖はジャンボーグA(1973年にテレビ放映された特撮番組)だろうか。
これはセスナ機からロボットに変化するもので、いわゆるヒーロー番組に、人間(異星人を含む)が超人に変身するものとは大きく異なる設定をもたらしたものである(ドラマとしてはあまり変わり映えしなかったけれど)。
ちょっと脱線するが、ヒーロー番組に登場したトランスフォームする携帯型(装着型)デバイスで最も多機能なものは、帰ってきたウルトラマン(1971年にテレビ放映された特撮番組)に出てきた万能(要するに何でもあり)武器ウルトラブレスレットだと思う。

その後、時代が移って、乗り物から人型ロボットに変形するものが主にアニメの世界でいろいろ出てきた。
僕が最も感銘を受けたのは、超時空要塞マクロス(1982年テレビ放映)というアニメの中のバルキリーというロボットである。
この変形(戦闘機形態から中間形態を経て人型になる)はかなりすごかった。
放送後に発売されたバルキリーのおもちゃはこの変形を忠実に再現していた(これはほとんどパズルのようだった)。
将来、バルキリーの実機を本当に作ろうとする人が現れるのではないだろうか。

このような空想上の乗り物と比べるとかなりスケールはダウンするが、以下のような変形する乗り物が存在する。
・トヨタのi-unit(低速移動モードから高速移動モードへの変形)
・立ち上がれる車椅子Pegasus(よくわからないけど車椅子に乗ったまま立てる)
・変形する自転車Switchbike(通常の自転車形態からリカンベントタイプに変形)
・そして、僕たちの作った個人用知的移動体AT(5号機から8号機までは、立ち乗りモードから座り乗りモードへ変形可能)

ところで、今年の夏に、トランスフォーマーという映画が公開されたが、どうもアホみたいな内容だったらしい。
これは、日常的なさまざまなものが目まぐるしい変形の末にロボットの姿になるというCGのシーンが売りの映画である。
CG以外に見どころがなさそうなので、あまり見たいという気持ちが起こらないけれど、何がどうなっているのかほとんどわからないような無茶苦茶な変形をするようだ。
この映画の元になった日本のアニメも見たことがないのだけど、日本のクリエイターの発想力や構想力が評価されている状況は喜ばしいことである。

この映画に触発されて、人間の都合に合わせて物理的形態がトランスフォームし、同時に、そこで提示される情報がトランスコードされるシステムがいろいろ発明されるとよいと思う。
僕もいくつかそういう変形ガジェットを考えているので、いつか作ってみたいと思う。

たとえば、液晶画面の裏側にキーボードが折りたためて、両手で画面の横を持って裏側でキータイプする携帯端末なんてどうだろう。
ディスプレイには、両手の親指を除く8本の指先が触れている(あるいは押している)キーの位置が半透明にオーバーレイ表示されて、文字入力だけでなくダイレクトマニピュレーションもできるというものである。
iPhone/iPod touchの2タッチオペレーションを凌駕する8タッチオペレーションである(しかも画面に指紋が付かない)。
画面上の情報は、裏側のキーでの操作がやりやすいようにトランスコードされる(たとえば、キーの境界線とウィンドウの境界線の一部が一致するように配置される)。
机の上に置いて作業するときは、通常通りの画面とキーボードの位置関係になる。
僕は、画面に触ったり画面を指でなぞったりするのが嫌いだし、片手で(つまり親指で)文字入力するのは苦手なので、こっちの方がきっとうれしいだろう。

これを考えたのは、1997年に東芝のリブレットというモバイルPCを使って歩行者用のナビゲーションシステムの研究をしていたときだった(以下の写真を参照。頭の上に乗っているのはGPSレシーバ)。

walknavi.jpg

このマシンは、ディスプレイ横にポインティングデバイスがあったのだがあまり使いやすくなく、歩きながらキーボードを使うのにも向いていなかった。
だから、キーボードをディスプレイの裏側に折りたたんで使えるとよいと思っていたのである。
これは変形機構に若干の工夫が必要だし、キートップにタッチセンサーを組み込む必要があるのだが、デバイスもソフトウェアもそれほど複雑なものではないので、作るのはあまり困難ではないと思う。

とにかく、トランスフォームとトランスコードが連携することで初めて可能になるものはいろいろあると思う。
トランスフォームするロボットを見て育った日本人の創意工夫が最大限に活かせる日が来るのではないだろうか。

投稿者 nagao : 12:38 | コメント (260) | トラックバック

2007年06月11日

オムニムーバーと実世界のインデックス

最近ようやく、僕たちが以前から作ってきた個人用知的移動体ATの9番目の機体の設計がほぼ完了した。
今回は構造が以前のものより複雑なため、詳細な設計はプロの人にやっていただいたのだが、基本的な仕様やデザインは僕が考えたものである。

今年の9月までにはとりあえず動くようにして、学外の人にもお披露目しようと思っていますので、興味のある方は是非見に来てください(ただし、場所は名古屋大学です)。

AT9号機の最大の特徴は、全方位に動けることである(全方向と言わないのは、上下方向にはまだ動けないからである)。
僕はそのような移動体を「オムニムーバー(OmniMover)」と呼んでいる。
オムニムーバーは、セグウェイのようにその場回転をして任意の方位を向いてから走行するようなものではない。
静止状態からならばどの方位にもすぐに動けるのである。

すでに動いている状態で任意の方位に動くためには慣性を何とかしなければならない。
また、乗っている人間への加速度の影響を考慮しなければならないから、動きたいと思う向きに即座に動けるわけではない。

ところで、任意の方位に動けるということは、これまでの乗り物の動き方とは異なる動き方ができるということである。
それは、たとえば障害物などのよけ方に現われてくる。
これまでの乗り物は、止まっている状態から真横に動くことができなかった。
それは、車輪という、人類の偉大なる発明が持っている最大の弱点だった。

しかし、世の中にはいろいろと考える人がいて、オムニホイールという発明がある。
要するに、車輪の回転方向と垂直の方向に回転する複数の小型の車輪を合成した複合車輪である。
この車輪を付けた物体は横滑りによって横方向に移動することができる。
実は、これはロボットコンテストなどの競技用ロボットでは、以前から導入されている技術である。

いまさらではあるが、僕はオムニホイールを屋内外両用の個人用移動体に応用することにした。
8号機までのATが電動車椅子の車輪を使っていたのと比べると、かなりの路線変更である。

もちろん、いくつかの問題がある。
4個のモーター付きオムニホイールを使って全方位に動かせるようにするため、モーターのパワーを結構無駄に使わなければならないことである。
そのためバッテリーの消費を考えるとあまり速いスピードを出すことができない。
また、オムニホイールは弾力性に乏しいので、振動や衝撃の吸収力が弱い。
つまり、この構成が乗り物として妥当かどうかは、さらなる工夫次第なのである。

さらにいろいろ考えているのは、無論、センサーと通信機能である。
自律的に動作するお掃除ロボットが、家具に傷をつけないために、目に見えない壁(バーチャルウォールと呼ばれる)でロボットの行動範囲を制限する仕組みがあるが、これと同様のものを乗り物に対しても適用してみようと思う。
つまり、走行可能エリアかどうかは、周囲の環境から自発的に発信される情報に基づいて決定するということである。

もちろん、これと通常のセンサーも併用する。
今のところ、最近よく自動車の衝突防止のために使われるようになってきたミリ波レーダーを(全方位を見渡せるように工夫して)使おうと思っている。
さらに、AT間、AT-ユーザー間の通信も利用して(照明を利用した可視光通信も併用する)、どう動くべきかを計算する。
つまり、ぶつからずに動くということを徹底的に考え抜いた乗り物を作ろうと思っている。


人が乗り物を降りて歩きまわれば何かにぶつかることもあるだろうが、乗っている限りはぶつからない。
何をしてもぶつからないのならば、乗っている人間はかなりリラックスできるだろう。
急に停止することも十分にあり得るから、ぼうっとしながら乗っているとびっくりすることもあるだろうけれど、操作ミスによる危険が発生しないのならば、熟練者でなくてもかなり気持ちが楽になって、できることもいろいろと広がっていくだろう。
そこで、物理的な状況と、その場で獲得した情報を結び付けるような作業もやってみようという気になるのではないだろうか。

たとえば、道端の花を見て、その写真を撮影すると同時に検索して見つけたその花のデータを一緒にして記録しておく、という作業である。
花の名前や色からその花を見た場所を検索するようなことも簡単にできるだろう。
夕日がきれいに見えた場所とかいうものでもよい。
後で思い出して地図に印を付けるというのでもよいかも知れないけれど、たいていの場合忘れてしまうので、その場で軽くやってしまうのがいい。
とにかく、人間が物理的な世界に自由にインデックスを付けられるような仕組みがあるとよいと思う。

Google Mapsのように地図の上でいろいろ操作することによって、実世界に(間接的に)インデックスをつけることも可能だろうが、その時間のその場所に、直接的にインデックスを付けられればその方が直感的でわかりやすい。

インデックスを付ける作業が日常のさりげない行為の中に埋め込まれている状態が理想であるが、それはなかなかむずかしい。
状況を解釈して意味(的な情報)を与えるということは、無意識的にはできないからだ。

日常の中に含まれる変化を敏感に感じ取ったり、些細なことでも新しい発見に喜んだりできるような感受性の豊かな人なら、ちょっとした努力で実世界へのインデックス付けを習慣化できるだろう。
ちなみに、そういう人は毎日ブログを書ける人かも知れない(僕にはとても無理である)。

ところで最近、よく月を眺めているのだけど、「ああ今日は三日月なんだ、そういえば、この前満月を見た時はこっちの方角じゃなかったなあ、どっちだったっけ」などと思ったりする。
こういうときは、今見ている空に目印を付けたいと思う。
実世界にインデックスを付けるというのは、たとえばそういうことである。

さらに、そのインデックスを共有して、関連するコンテンツ(たとえば、体験コンテンツ)と結び付けておくのがよいだろう。
たとえば、いわゆるマインドマップに時空間の概念を導入して、ATで移動しながら半自動的に実世界マインドマップを作っていくというのはどうだろう。
移動に伴って自動的にノードが生成され、ある場所の滞留時間が長くなるとノードが大きくなって、さまざまな情報とリンクできるようになるのである。
映像・音声はもちろんのこと、Webで調べた情報やその場で入力したタグやコメントもノードに付与できる。
また、ノードには位置情報が関連付けられていて、マインドマップの表示をトポロジカルに変化させられるようにする。
そして、この実世界マインドマップを簡単なやり方で編集して、Webにアップロードして共有するのである。

このような活動がグローバルに展開されれば、たとえ初めて訪れた場所であっても、実世界に付けられたさまざまな目印を発見して誰かの体験(の一部)を共有できるだろう。
未来の乗り物ATは、そのようなインデックスを実世界上で検索し、体験を再利用するためのマシンにもなるだろう。


世界にインデックスを付けるという行為は、もちろん、セカンドライフのような仮想世界上でもできる(しかも、おそらくもっと簡単にできる)のだけれど、もともとの世界の持っている複雑さが違い過ぎるので、仮想世界での体験共有は段々飽きられていくのではないかと思う(仮想世界の複雑さが今よりずっと拡大していくことは想像できるが、やはり実世界には遠く及ばないと思う)。

僕たちの生きている世界はまだまだ新しい発見に満ち溢れていると思う。
ネットでちょっと情報を調べるだけでこの世界のことをわかったような気になってしまうのはとてもまずいと思う。
それよりも、たくさんの人が、自らの手で、この世界を理解するための手がかりを作成して共有していくのは、ネットと実世界にまたがるとても創造的な活動だと思う。

僕はそういう世界の理解と発展につながるような創造的な活動を後押ししてくれるマシンを作りたいと思っている。

投稿者 nagao : 09:11 | コメント (2028) | トラックバック

2007年05月25日

責任感を持てますか

はじめに断っておきますが、これは愚痴です。

教育に対する僕の信念は「学生を鍛えることに関して妥協をしない」ということである。
教育というのは極端なことを言えば、相手に特に望まれてもいないものを与えようとするおせっかいである、と思っている。
それでも僕は学生を鍛えたいと思う。
それは僕の方が学生よりも時間的に長い範囲のことを考えることができるからである。

しかし、どうしても学生に持たせることができないものがある。
それは「責任感」である。
これだけは、学ぶという行為からは得られないと思う(働くという行為からは得られる可能性がある)。
いろいろなことがわかるようになる、あるいは(具体的なことが)できるようになることと、責任感を持てるようになることはまったく次元の異なることだからである。

責任感を持てる人間は、もともとその素養のある人間だと思う。
僕がこれまで、この人は真面目な人だと思った人はすべて責任感を持てる人だった。

責任感を持てない人が、それを持てるように、教育によって外側から変えるのは不可能だと思う。
そういう人は自分の失敗(あるいは未熟さ)をごまかすということに良心の呵責を感じない(ように見える)。
不備な点を指摘したら、けっしてそれを認めることはなく、必ず言い訳を言う。

なぜ責任感を持てないのか、それは近視眼的な経済的合理性(つまり損得勘定)で自分の行動を正当化しようとするからである。
責任感を持つ(そしてそれに基づいて行動する)ことの意味は、簡単に推論できる程度の合理性では説明できず、ある程度の時間の長さを考慮しないと理解できない。
短期的には自分は得をしない(むしろ損をする)ことを受け容れて、長い時間の後の自分および自分の所属する組織(共同体)の利益を考える人間でないと責任感を持ちえない。


学生時代にそういう合理性を超越したことをまったく考えられなくなってしまったのは、ほぼ100%育った家庭環境に起因するだろう。
つまり、親が自分の子供を責任感を持てない人間にしてしまっているのだ。

しかも、日本のマスメディアは、近視眼的な経済的合理性による自己の行動の正当化を助長しているように見える。
「勝ち組」「負け組」なんて、人間の人生の価値を単純化してしまう実に嫌な言葉だ。
あげくに「お金儲けは悪いことですか?」なんてことを臆面もなく言う奴(普通、そんなことは思っていても口には出さない)が現れ、「(それ自身は)別に何も悪くない」とほとんどの人が応じる。
それはそうだ。
金儲けが悪いなんてことを合理的に説明できる人はいない。
しかし、ちゃんと反論できないからといって、それが真理だということではない。
人間の価値観は多様なものだし、経済的合理性に逆らって行動することもある。
お金で買えないものは確かに存在する。
むしろ、お金だけで解決できる問題はかなり特殊な部類に属すると思う。
損か得かなどという考え方をすると問題が単純化されてしまい、しばしば本質から目を逸らしてしまうことになる。


僕は、学生が責任感を持てる人間かどうかよく見極めようとしている。
責任感を持てない人にプロジェクトリーダーを任せることはできないからである。
リーダーはできないけれどメンバーの一人としてはよくがんばる人も当然いるから、リーダーになれない学生がダメかというとそんなことはない。
近い将来、研究室の学生が全員、責任感を持てない人間になってしまうこともあるだろう。
その場合、僕や助教(助手)の先生がプロジェクトリーダーをやらざるを得ないのだけど、一般にとても忙しいので、きめの細かい指示(進捗管理や軌道修正など)が出せなくなってしまい、その結果、研究室が出せる成果も今よりさらに少なくなってしまうだろう。

社会に出てから、じわじわと責任感を持てるようになる、ということもあるかも知れない。
それはそれでよいことだと思うけれど、それは教育の成果ではなく、責任感を持てないでいること(それによって被る社会的な疎外感)への焦りから少しずつ自分を変えようとした結果だろうと思う。


ところで、僕はネット上の情報は話半分で読んでいることが多いが、割とよく見るサイト「痛いニュース」のコメント欄を見て、これはまさに責任感を持てない人間の本音だなと思ったものがある(例が極端な気もするが、かなりインパクトがあったので)。
それは、以下のものである(許可をもらっていないけど転載します。ごめんなさい)。

97. Posted by 1/2 2006年08月01日 14:40
女「戦争になったら戦える?人殺せる?」
男「無理」
女「日本負けそうになったら○○もやっぱ戦地に行くのかな?」
男「無理、逃げる」
女「あはwだよね、アンタそんな感じだもん」
男「俺が逃げる時は必ず迎えに行くから」
女「迎えに来る前にメールして、じゃがりこ買い込んで持って行かなくちゃいけないからw」
男「戦争中でもじゃがりこか!サラダ味か!w」

98. Posted by 2/2 2006年08月01日 14:41
女「……人を殺したくないから戦わないの?」
男「それもあるけど理由なんて幾つもあるじゃん、言葉で言うと単純で馬鹿みたいになるけど…でもまあ絶対に人は殺したくないね」
女「私が殺されそうになっても不殺の剣心?」
男「そうなったらもう俺なんか一瞬で血に飢えた人斬り抜刀斎だよ」
女「熱くてかっこいいじゃん、男だね」
男「でも多分負けるから」
女「そうだろうねwあんた本気で人を傷つけたり出来なさそうだし、腕細いしw」
男「ごめんね」
女「全然いいよ、二人とも殺されるんなら全然いいよ」
男「戦争は怖いね」
女「怖いね」

みたいな会話を電車でしてるカップルがいたのを思い出した

痛いニュース:「戦争が起こっても、戦いません!」が世界一の日本のコメント欄より


これは、日本が将来、他国と戦争状態になり、徴兵制を施行した場合のことを想定しているのだろうけど、ナンセンスな妄想だと笑うことはできない気がする。
僕は少なくともあと50年くらいは日本が他国と戦争状態になり一般市民が巻き込まれることはないと考えていたが、最近はそれについてはあまり自信が持てなくなってきた。
日本の周辺国(複数)の政府(とその教育を受けた国民)は具体的な悪意と敵意をあらわにしているようだからだ。

人(つまり敵国の兵士)を殺したくない、という感情は「自分が殺されたくない(同じ立場になりたくない)から」という気持ちによるものだと思うけれど、自分の国を護るための戦いに臨むということは、個人的感情を超越した感覚を持たないと理不尽きわまりないと感じられるだろう。
なぜ国を護るために個人が生命を危険にさらして戦わなければならないのか、合理的に説明するのは困難だろう。

まず、自分が自分の所属している共同体によって護られていることを自覚しなければならない。
これまでずっと誰かに護られてきたのだから今度は誰かを護っていかなければならない。
今という時間だけに捉われないで、過去と未来を考えられる人間でないと責任感を持つことはできないだろう。
今の自分という狭い視野から離れて、自分を中心とした時間と空間の広がりを感じられるようになるとわかると思う。
自分が国家という共同体の中で護られてきたということを。

現在の日本では徴兵制が施行されていないので、今のところ国を護るために戦うかどうかは個人が選択できるけれど、戦争状態になって国が志願兵を募った場合、僕は自分の責任を果たすために志願するだろうと思う。
そして、自分の知識や技術を活かせる方法を模索するだろうと思う。
僕には、前の世代から託された責任があるし、その責任を果たし、次の世代に引き継いでもらわなければならない。


責任感を持てないということは、長い時間の流れの中で自分の存在する意味を自覚できないし、ふわふわした気分になってしまうだろう。
そんな気分で生きていくなんて何だかすごく居心地が悪い気がする。

前の世代から何かを託されて、次の世代の誰かのために仕事をしていくことは、自分が何のために生きているのかを確認するための一つの方法だと思うのだけれど、そんなことを「責任感を持てない人」に言ってみたところで無駄なのだろうか。

自分の人生がつまらなく思えてきたなら、自分の所属する共同体の中で自分が何をして何をされているかを考えてみるとよい。
一人で生きていける人間はいないのだから、頼るのも頼られるのも自然なことなのである。
だから、「他人に迷惑をかけなければ自分は何をしてもよい」なんて考えるのをやめよう。
誰でもただ存在するだけで他の誰かの迷惑になっていることもあるだろうし、かけてもよい迷惑というのもあるのである。

人に頼り、人に頼られて生きていくことはつまらないことではない。
人生の彩り(いろどり)は自分一人で決めていくものではないからである。
ほんの少しでいいから、人に頼っている分より人に頼られている分が多くなるように行動してみよう。
それは責任感を持てるようになるためのはじめの一歩なのである。

投稿者 nagao : 23:24 | コメント (280) | トラックバック

2007年05月18日

未来の話ができますか(後編)

人間の脳をダイレクトにコンピュータにつなげるという研究があるらしい。
血管内に挿入して治療に用いるカテーテルを電極として用いて、首のあたりから脳に侵入させるのだそうである。
電極を脳の神経系に直接つなげるわけではないと思うが、頭の皮膚に貼り付けるタイプの電極と違って、頭蓋骨によって減衰することはないし、かなり高い精度で脳内の電気信号を測定できるだろう。
昔から、ブレインマシンインタフェースという研究領域はあったけれど、脳波や脳内の血流を測定して精神生理学的状態を推論しマシンの制御に用いる、という一方向的なものが多かった。
しかし、電極を脳に挿入すれば、おそらく双方向の情報伝達ができるだろう。
ロボトミー(lobotomy)のように人間の感情や意識に多大な影響を与えることになるだろう。

その結果、人間の記憶がマシンを経由して統合されるだろう。
そして、記憶の統合された複数の人間はまるで一人の人間のようにふるまうことになる、かも知れない。
人類が一人の存在のようになれば、いらぬ誤解や確執がなくなって世界も平和になるだろうし、大変結構なことだ、ということのようだ。

しかし、ずいぶんとやばそうな話である。
おそらく僕の生きているうちには実現しないだろうが、僕はこの話に不気味なものを感じる。
この研究の過程で、死んだり精神崩壊を起こしたりする者が現れるのではないかと思う。
自らの研究に殉ずるという態度(お金で被験者を雇ったりするならマッドサイエンティストなので論外だが)は、覚悟としては立派だと思うが、どうも称賛する気にはならない。

命を危険にさらすような研究は、たとえ成果に高い価値があっても、よい研究ではないと思う。
装着型ロボットのようなパワードスーツに関する研究も装着者にダメージを与える可能性がある(暴走しそうになったら自動的に外れるようになっているのなら問題ないけれど)。
僕らの作っている個人用の乗り物も似たようなものだと思われるかも知れないが、電源スイッチを切れば確実に停止するし、スピードも制限されているので、人間が機械の影響を受けないように分離することは容易である。
機械と人間の境目を明確にしておき、必要に応じて、容易につないだり切り離したりできるようにしておくべきだと思う(それでも、携帯電話のように依存症になる人が現れるかも知れないが)。


さて、僕は人間の知能を増幅させるマシンを作りたいと思っているが、それは決して冒頭で述べたような、脳に対するダイレクトな手段によってではない。

人間の知能をコンテンツを使って増幅させるのである。
それって普通じゃん、と思われるかも知れないが、コンテンツは人間の知能を増幅させることも、それを停滞させることもできるのである。

まず、基本的な前提として、頭は使えば使うほどよくなる、というのがある。
これを否定すると後が続かなくなるので、とりあえず認めておこう。

頭を使う最も一般的な方法は本を読むことである。
だから、本を読めば読むほど頭はよくなる。
多分、漫画はダメだと思う。
理由はうまく言えないが、とにかく漫画はいくら読んでも頭はよくならないと思う。
内容によるのではないかと言われるかも知れないし、確かに内容が高度で、深く考えさせられたりする漫画もあるだろうけれど、やはり漫画では頭のトレーニングにはならないと思う。
ただ、漫画を読んで、それについて論じるような文章を書いていれば、それは頭をよくすることにつながると思う。

自らの頭をよくしようという意欲のないものは、そのために自分の労力という対価を支払う動機がないので、おそらくこのようなトレーニングを一切やらないだろう。
そういう人は貴重な自分の未来を目の前の時間に二足三文で売り払ってしまっているのだと思う。

最近読んだ本で、大きくうなずくと同時に暗澹たる気持ちにさせられたものがある。
その本にはこんなことが書いてあった。

「現在の教育の問題は、単に子どもたちの学力が低下しているということではありません。
それが子どもたちの怠惰の帰結であるのではなく、努力の成果である、ということです。
学力の低下が子どもの側の怠惰や注意散漫の結果であるのなら、その補正はたかだか教育技術の次元の問題にすぎません。
しかし、現実に一定数の子どもたちが学びを放棄し、学びから逃走することから自己有能感や達成感を得ているということになると(そして、その数が増えつつあるとすると)、それは教育技術やカリキュラムの改訂といったテクニカルなレベルでは解決できることではありません。
社会のあり方全体についての身を抉る(えぐる)ような考察を通じてしか、この問題に取り組む道は見えてこないでしょう。」
(内田樹著「下流志向 学ばない子どもたち・働かない若者たち」講談社 2007 116ページより)

僕は教育者のはしくれとして、この状況は看過できない。
この話が本当なら、いわゆるアメリカ式の経済合理主義はいつか日本人のほとんどを下流化させることになるだろう。


コンテンツを使って知能を増幅させるというのは、ただコンテンツを消費して頭を鍛えるということだけではない。
人間がコンテンツをうまく活用して効率よく知識活動を行えるように、コンテンツと人間とのマッチメイキングを行うのである。
これは、いわゆる検索とは少し異なる。
明示的な検索要求が必要な状況は多少はあるかも知れないが、たいていの場合、暗黙的に行う。
そのために必要なことは、その人間のことをよく理解することである。

コンテンツの理解は人間や世界の理解に必ずつながる。
架空の物語を綴った小説であっても、その理解は必ず著者を理解することにつながるだろう。

そして、人間のことをよく理解するために有効なコンテンツは、いわゆるライフログである(もちろん、普通のブログでもよいけれど)。
ライフログは、要するに人間の行動に関するコンテンツである。

これに関連して、最近よく話題になるSNSの一種として、Twitterと呼ばれる、「今していること」を簡単なやり方で公開することで、友達とのつながりを感じ合える仕組みがある。
僕は、最初こんなことをする理由がよくわからなかった。
知り合いに「これ何の役に立つの?」と聞いたら、「何の役に立つかなんていう質問は愚問ですよ」と言われた。
「何の役に立つか」は自分で判断するべきだし、その程度の判断ができない奴に説明しても無駄だから、だそうである。
むしろ、「どうしたら自分の役に立てられるか」を考えればよい、ということだろう。
ちょっとカチンとくる言い方だが、まったくその通りだと思う。

「今していること」の集積がまさにライフログなのだから、Twitterユーザーのログを集めていけば自然にライフログが作れるだろう。
僕は、体験の文脈に興味があるので、映像や音声のバイナリーデータが欲しいところだけど、別にそんなものを必要としない人がいてもおかしくはない。

さて、考えるべきはその後のことである。
おそらく、人間が自分のライフログを閲覧・編集している過程で、機械がその内容を解析するようなツールが発明されるだろう。
また、他者のライフログを引用して、自分の生活に役立てる人やそのためのツールが現れるだろう。
ライフログの意味を構成するオントロジーを作成する人もきっといるだろう。
その先に、セマンティックソーシャルネットワークと呼べるようなものが見えてくるだろう。
それは、人間の今をつなぐためのものではなく、時間を超えて、見知らぬ人間同士を結び付けるものになるだろう。

そして、人生のあらゆる局面において、参考になる(かも知れない)コンテンツが推薦されるようになるだろう。
人間の思考や生活習慣などは、時代が変わっても本質的な部分はあまり変わっていないと思われるから、かなり古いコンテンツ(ライフログ)でも読むべきものはきっとあるだろう(たとえば、これは正確にはライフログではないが、源氏物語の光源氏に現代人が学ぶべきことはいろいろあると思う)。
人間は、推薦されたコンテンツを読むべきものと信じられるならば、よく読んで、これからの行動を考えるとよい。
その行動もライフログとして残せば、他の人にとっての有益なコンテンツになるかも知れない。
文脈が異なるのだから、過去の行動をそのまま再現すればよい、というわけにはいかない。
ならば、その行動のエッセンスは一体何なのかを考えないと応用がきかないだろう。

そのようなライフログに関わるコンテンツの作成と利用の正の循環が、人間の知能を増幅させることにつながるだろう。
まさに、そこに僕たちの考える未来がある。

ライフログがあたりまえのものになれば、人は自然に変わっていくと思う。
それはこれまでよりも客観的に自分のことを眺めることができるようになるからである。
人は自分の行動を振り返れば、自分がどんな生き方をしてきたのか改めて知ることになる。
未来を予測するために重要なことは、過去をよく知ることである。
しかし、残念ながら人間は過去をすぐ忘れてしまう。
だから、いつでも簡単に自分の過去を確認できる仕組みが必要なのである。


僕は、人間が機械の力を借りることによって自ら考えることを放棄するような未来は志向していない。
人間は大いに考えるべきだし、精一杯考えた結果を共有して、その先のことを考える布石にするべきだと思っている。

1000年以上前の人間の体験を見て、その発想や行動力に感心し、それを参考にして今後の生き方を考えるなんて、歴史というものを持っている人類というのは実に素晴しい存在だと思うのは僕だけだろうか。

投稿者 nagao : 15:29 | コメント (273) | トラックバック

2007年05月07日

未来の話ができますか(前編)

連休中にやろうと思っていたことの半分もできなくて残念です。
ワードローグのコーディングも途中で投げ出したままだし、本の原稿も完成してないし。。。やれやれです。


つくづく未来の予測はむずかしいと思う。

PDF(Portable Document Format)やドローツールのIllustratorで有名なAdobe(アドビシステムズ社)が、SVG(Scalable Vector Graphics)のサポートを停止する(正確には、SVG表示ソフトのSVG Viewerに関して、2007年末にサポートを、2008年末に配布を終了する)、という発表をしたのを聞いて、「しまった、読みを間違えた」と思ったのである。
SVGは、PDFとほぼ同じ表現能力を持つ、Webブラウザ向けのベクターグラフィック言語のことである。

実は、SVGが発表され、Adobeがそのビューア(Webブラウザのプラグイン)を公開したときに、これは結構使えると思ったのである。
僕のいる研究室では、かつてMathMLという形式で記述された数式をSVGに変換して表示するコンバータを作ろうとしていた(結局、MathMLの仕様が複雑すぎるので断念した)。
また、MusicXMLという形式で記述された楽譜をSVGに変換して表示し、楽譜の任意の要素(音符や休符、歌詞の一部など)に対してアノテーション(情報付与)できるシステムを作っていた。

また、僕が仕様を決め、僕のいる研究室で制作したデジタル認知科学辞典というコンテンツは、図や数式とテキストをシームレスに表示するためにSVGを利用している。
このSVGは、辞典項目のXMLデータ(辞典の構造をXMLタグで記述したもの)から自動変換したものである(SVGもXMLデータである)。
つまり、辞典の各項目をXMLで構造化して、タイプの異なる情報をシームレスに表示するためにSVGを利用したのである。
デジタル認知科学辞典のCD-ROM版は、書籍のおまけではなく、独立した商品(電子書籍)として企画されたものなので、この決断はとても重要だった。
CD-ROM版はサーバーアクセスを前提としていないので、変換後のSVGファイル(および検索用ファイル)のみ収録している。
トラブルの元になるので、データベースや変換ソフトは入れていない(検索にはシェアウェアのPDIC(Personal Dictionary)を利用している)。
販売元(および書籍版の認知科学辞典の出版元)の共立出版は、僕の考えを全面的に認めてくれた。
ちなみに、これのサポートページも僕が管理している。

そのコンテンツがもう見れなくなってしまうかも知れないのである。
実際、僕が今使っているWindows VistaのIE 7.0では、すでに見れなくなっている。
こうなる危険性は最初から考慮すべきだったのに、僕はPDFの思想を継承してさらに柔軟にしたSVGがそう簡単に廃れるはずはないと考えてしまったのである。
こうなると、CD-ROMの改訂版をSVG抜きで作り直さざるを得なくなってしまった。
SVGに含まれている情報から項目間のリンク情報を分離し、JPEG画像とHTMLタグに変換してしまえばよいのであるが、ベクター情報がなくなってしまい、拡大縮小が柔軟にできなくなるのが実にもったいない(ちなみに、CD-ROMには、2種類の文字サイズのSVGデータが収録されている)。


実は僕は、およそテキストで表現できる情報なら何でもかんでも、とにかくXMLにしてデータベース化するべきだ、という考えを持っている。
そのため、研究室の学生にXMLデータベースの利用を義務付けたことがあった。
僕らの作るシステムは、ネットでの共有を前提としたものなのだから、データを保存するときに、ローカルファイルに保存するようなやり方はやってはいけない(イメージやビデオなどの場合は仕方がないが)、必ずデータベースに登録するようにしなさい、と言ってきた。
実際、僕たちが研究室Webサイトで公開している論文はすべてXML形式で記述され(アブストラクトのみのものもある)、データベースに保存されている(ブラウザで見るときは、XSLTをサーバー側で適用してHTML化して配信している。論文のURLの最後に?xsl=falseを付けると変換前のXMLのソースが出力される)。

データベースを使うこと自体は今でも間違っていないと思っているが、XMLデータベースを使うという試みはことごとく失敗した。
遅い、重い(メモリーを食う)、よく落ちる、の3拍子がそろっていたからだ。
これは単に実装の問題ではないのではないかと思う。
XMLデータベースに未来があると思っていたのは、誤りだったと今は思う。

それで、XMLデータベースを使うのをやめて、PostgreSQLやMySQLなどのリレーショナルデータベースのみを使うようにした。
現在は、それでシステムが安定して動いている。
ただし、XMLを使うという方針は変えていない。

僕がまだSony CSLにいた1998年に、(その翌年に8年ぶりに戻ることになった)IBM東京基礎研究所に所属する研究者が作ったXML Parser for Java(これは後にApacheに寄贈されXercesの原型となった)というのを使って、Webドキュメントに言語的アノテーションのタグを付ける仕組みを作ったりしていた。
それ以降、ずっとXMLを基盤にしたシステムを作ってきた。

XMLは、技術的にはたいしたものではないと思うが(よくネットで話題になる情報技術のほとんどが実はたいしたものではないということが多いが)、およそ価値のある情報というものは人間が見てもわかるような(つまりテキストエディタで編集可能な)構造化がなされているべきだ、という基本的な思想が重要なのだと思う。
その構造がデータを賢く使う上で役に立つものであることももちろん重要である。
意図的に一部の情報を暗号化して読めなくする場合を除いて、データの構造がデータそれ自身を見ればだいたいわかるようになっていることは情報処理の透明性を上げるという点できわめて本質的である。

だから、僕はXMLを将来的にも意味のあるものと考え、システム設計の基本に据えたのである。
僕らの作っているシステムは(少なくともそれによって作成・生成・蓄積・利用されるデータは)あと10年くらい楽にもつだろうと考えている(ただし、前述のSVGを除く)。
ちなみに、XMLタグセットのセマンティクスを記述するXMLスキーマは必要ないと思っている(これには異論のある人もたくさんいそうだけど)。
あるタグセットが何のために設計されたかはスキーマを見ても理解できないし、アプリケーションによってタグの解釈(利用法)が異なっていても構わないだろう。
誰かが以前に「XMLデータはそれ自身がアフォーダンスを持っている」つまり、XMLタグはそのデータをどう使ってもらいたいかを自ら示している、というニュアンスのことを言っていたが、その通りだろう。
XMLスキーマなんか使わなくても、事例としてのXMLデータをよく見れば、何をどう使うべきかはわかってくるし、それに基づいてアプリケーションを自由に設計すればよいのである(XMLスキーマはその作業を楽にしてくれる、という主張もあると思うが)。
タグごとにデータ型(整数か文字列か、など)が定義されていた方がありがたいことは確かにあるが、XMLの使われ方全般の中では瑣末な問題だと思っている。
それよりも重要なのは、データ型などよりはるかに複雑な、コンテンツそのもののセマンティクスを記述することである。
これには、もう少しややこしい仕組みが必要なのだが、その話はここでは省略する。


たとえいくつかの予測が当たらなかったからといって、予測するのをあきらめてしまうのでは研究者失格である。
可能な限り妥当な未来の予測をして、その未来のための準備をしておくのが研究という仕事の真髄だと思う。
ダイナブック構想やMacintochのモデルになったAltoというマシンで有名なアラン・ケイは「未来を予測する最良の方法はそれを発明することだ」と言ったらしいが、問題は「発明や発案だけでは未来にはつながらない」ということだ。
やはり個人の強い意志や信念をもって発明に臨んだとしても、それだけではどうにもならない。
社会がそれを受け容れ、あたりまえのものとして定着し、なくてはならないものとしなければ、発明が未来に影響を与えたとは言えない。


さて、情報技術の未来に関して、これから起こるであろうことを、懲りずにちょっと書いてみようと思う。

僕がこれから大きく変わるだろうと思っていることは、デジタル情報の再利用という概念である。
Web上のコンテンツが永続化されれば、それはコピー&ペーストではない仕組みで再利用されるだろう。
また、動画コンテンツもコピー(ダウンロード)して再配布するようなやり方ではなくなり、もっとリーガルで柔軟なやり方になるだろう。

永続化するというのがなかなか困難なように思われるかも知れないが、たとえば、こんな話である。

ひとたび、ネットで情報を不特定多数に向けて開示した場合、明らかなミスによるもの(たとえば、情報漏洩)でもない限り、下手に削除などをするとかえってまずいことになることがある。
それよりも、一度出してしまった情報は潔くそのままにして、その後に訂正したくなった部分に関して、変更部分とその変更理由を付加情報として別に用意し、閲覧時に統合されるようにしておくのがよいだろう。
もちろん、誤字脱字などの単純なケアレスミスに関しては、理由を書く必要もなく、(直接の編集ではなく)閲覧時に動的に置き換わるようにして、やはり付加情報として管理するのがよいだろう。
こうすれば、Web魚拓なんかを取られて、つまらない詮索で痛くもない腹をさぐられるようなことはなくなるだろう。
ネットに情報を出す場合は、ある程度の覚悟と責任をもって行うべきなのである。
たとえ、憶測による間違った情報を不用意に出してしまったとしても、誰かが見ているかも知れないから、断りなく引っ込めて、なかったことにするわけにはいかない。
元の情報に加えて、訂正およびその理由を出していくことによって、きちんとおとしまえをつけなければならないのである。

CGM(Consumer Generated Media)的なものはそれでもよいが、コマーシャル(商用)コンテンツはそうはいかない、という人がいるかも知れない。
動画コンテンツや音楽コンテンツを永続化することの困難さは理解できなくもないけれど、ネット資源を今より効率的に使う技術はきっと生まれるだろうし、著作権の考え方も変化するだろうから、Amazonのようなロングテール戦略を試みてみるべきだと思う。
つまり、ヒット商品も時間がたてばニッチ商品になるのだから、いっそすべてニッチ商品としてビジネスを考えればよいのである。
Amazonと違うのは、ネット上のコンテンツはそのままでは商品になりにくいことだと思うが、自由に閲覧可能のものが商品の一部になっているとか、クオリティ(解像度や音質など)を落としているとか、パッケージメディアのバージョンには特典が付いてくるとか、いろいろやりようがあるだろう。
また、いっそオンラインのコンテンツはすべて商品を宣伝するための広告と考えてもよいと思う。
それなら(コピペではない)引用を通じて、口コミでコンテンツの評判が広がっていくことは歓迎すべきことだろう(よい評判は直接商品の売り上げに貢献し、悪い評判は次のコンテンツを作るときの注意事項になる)。
だから、これからコンテンツを作るときは、ネットで永続化するつもりで、出演者などと契約を結んでおくのがよいと思う。

永続化は再利用の概念と仕組みを変え、人々に責任と覚悟を求め、著作権のあり方も変え、コンテンツ関連ビジネスをロングテール化させるだろう。
そして、僕たちが考えているのは、さらにその先の未来のことなのである。

投稿者 nagao : 01:52 | トラックバック

2007年04月27日

ディープな検索

多くの人にとって、ネットでの検索と言えば、たいてい、自分の要求にかなうコンテンツを見つけることを指すだろう。
しかし、ある程度大きなボリュームを持ったコンテンツの場合は、コンテンツを見つけるだけでは不十分であり、そのコンテンツの中身に対する検索も必要になる。
たとえば、ある調べものをしているときに関連する専門書を発見できたとして、その本のどの部分に知りたいことが書かれているのか、さらなる検索が必要だろう。
スニペット(snippet)と呼ばれる、検索エンジンの検索結果に含まれるテキスト情報のように、検索キーワードに関連したコンテンツの一部分を抽出して表示するというやり方があるが、キーワードがそのコンテンツ内にどのように分布しているのか、たとえば、一部にしか現れていないのか、あるいは万遍無く現われているのか、などを詳細に知りたい場合があると思う。

つまり、当然ながら、コンテンツ検索の次にはコンテンツ内検索が必要になるということだ。
僕はコンテンツ内検索のことをディープサーチ(deep search)と呼んでいる。
これは、コンテンツ内の任意の部分にタグを付けることをディープタギングと呼ぶことからの連想である。

たとえば、タイルバーという仕組みでは、検索に使ったキーワードが文書中でどのように分布しているのかを示すことができる。
これによってユーザーは検索結果の文書中のどの部分を詳しく見るべきかを容易に判断することができる。
タイルバーは、(1)文書の相対的な長さ、(2)文書中のキーワードの出現頻度、(3)文書中のキーワードの分布状態を同時にかつコンパクトに示すことを目的としている。

このようにテキストコンテンツに関しては、すでにいろいろな研究があって、情報可視化のような分野の盛り上がりにもつながっている(最近「見える化」っていわれているものもそういうものですかね)。
当然、これから対象にすべきものはビデオである。

僕のいる研究室の一人の学生は卒業研究でビデオシーン検索システムを開発した。
これは、僕たちの運営している動画共有サイトSynvieで収集されたシーンへのコメントやシーン引用をしたビデオブログを用いて、シーンタグと呼ばれる検索用キーワードを抽出し、シーンタグのビデオ内での出現分布を見せることで、ビデオ内の検索を容易にできるようにしたシステムである。

このシステムは、動画コンテンツ内に深く潜る(dive)という意味を込めてDivie(ダイビィ, dive into movie)と呼ばれている。
DivieはSynvieの一部として公開されているので、興味を持たれた方はぜひお試しください(ちなみに、Synvieはデザインが一新されました)。

一般にビデオシーン検索は検索の対象をビデオ全体ではなくシーン(ビデオの一部分)としたものだと思われていると思うが、ここでは少し違う。
最終的には探しているビデオシーンにたどり着くことを目的としているものの、探している過程で、そのシーンの前後の文脈や全体におけるそのシーンの位置づけがわかるようにしている。

やはり、潜るときは見渡せる範囲はよく見渡してから、潜る場所をよく確かめて潜るのがよいのである。

もちろん、途中は素っ飛ばして結論だけ知りたい人は、ピンポイントにターゲットの狭い範囲だけを見たいかも知れない。
しかし、残念ながら、ビデオシーンにピンポイントにたどり着けるほどの精度のよい検索は現状では極めて困難である。

そもそも、検索という行為では、その過程において自分の探しているものを再確認することが多い。
つまり、何らかの当てずっぽうでダイレクトに結果に到達するより、その途中でうろうろしながら周辺の情報を確認しておくほうが、より正確に自分の求めているものに出会うことが多いのである。

ビデオシーン検索も同様で、シーンタグの付与されたシーンのみを視聴するのではなく、シーンタグがコンテンツ内でどのように分布しているかをよく見て、シーンタグの付与されている部分の周辺もざっと眺めたうえで、より詳細にビデオを視聴するやり方がよいだろう。
シーン検索の過程で、最初には思いつかなかったタグを一覧の中に見い出すこともあるだろうし、それらのタグの分布も簡単な操作で見れるようになっているべきだろう。

そのために、Divieでは、以下の図のように、検索結果の一覧を表示するときに、コンテンツ内のシーンタグの分布がわかるようにしている。

divie.jpg

つまり、候補となったコンテンツごとに、タイムラインを表示してシーンタグが付与されている時間がわかるようにしている。
また、同時に、そのコンテンツに付与されたすべてのシーンタグ一覧を表示し、その中のタグをマウスで選択すると、そのタグの分布をタイムラインに追加する。
さらに、タイムラインにはスライダーが付いており、それをドラッグすると、やはりコンテンツごとに表示されているサムネイル画像が変化する。
サムネイルはあらかじめ作成されているので、スライダーを動かしても、ビデオそのものにアクセスすることなく、その時間に対応する画像を表示できる。
そして、スライダーを止めた時間からビデオが視聴できるように、Synvieにリクエストを出せるようになっている(その場合、サムネイルか、タイムラインの直下にあるボタンをクリックする)。

このようにコンテンツ検索とコンテンツ内検索は連動しており、潜ったり浮かんだりの繰り返しが簡単にできるようになっている。

ところで、ディープサーチはビデオに限定されたものではない。
前述のタイルバーをタイムラインの代わりに用いれば、かなりのボリュームのテキストコンテンツにもほぼ同様の仕組みで潜ることができる。
また、イメージやグラフィックスの中にも潜っていくことができるだろう。

そういえば、1997年頃、Tour into the Pictureという、日立の研究所がやっていた研究があって、印象派などの有名な絵画をスパイダーメッシュという手法で分析して、絵画内の風景に奥行きの情報を加えて、単純なズーミングとは異なる手法で絵画に含まれる詳細な情報に視覚的に迫っていくという、非常に面白いビジュアルエクスペリエンスを実現したという話があった(その後、この話はどうなったのかわからないけれど)。

ディープサーチには言語的な手がかりが必要なので、これと同じことはできないが、コンテンツ内を探索していく雰囲気には近いものがあると思う。
イメージ内の要素にタグを付けることは一般的に行われるようになったが、その要素を構成するより細かい要素にタグを付けていき、タグに構造を与えていくような仕組みはまだ一般的ではない。
たとえば、GoogleがImage Labelerでやっていることも、イメージ全体に対する表層的なタグ付けである。
これには人間の解釈が入るのでタグには意味的な要素が含まれるのであるが、できればもっと深い意味の情報が欲しいだろう。

僕らのやり方は、オンラインアノテーションと呼ばれる、多くの人のコンテンツへのコメントや属性の付与を利用して、ディープサーチに利用可能な、コンテンツの要素に関する意味的情報を抽出するというものである。
このオンラインアノテーションを工夫して、できるだけコンテンツの中の深いところにコメントを付けられるようにしたいと考えている。
たとえば、ビデオに関しては、シーンやフレーム内オブジェクトである。
シーンへのコメントはビデオ内のある時間区間に表示する字幕(および注釈)みたいなもので、フレーム内オブジェクトはイメージ内の矩形領域のことであるが、コメントを付与する対象やコメントの書き方に趣向を凝らして、もっと深い情報が得られないものかと考えている。

また、コメント文を解析して、使えそうなキーワードを抽出して(このやり方についてもいろいろ工夫を凝らした)、検索用キーワード(すなわちシーンタグ)とする仕組みも実現した。
アノテーションの数が少ないと、当然ながらシーンタグのバリエーションも少ないのであるが、人間の活動をうまく知識に変換していく仕組みがあれば、自ずと検索可能なシーンや検索に使えるシーンタグが増えていくものと考えている。

最近、「情報大航海」なんていう大規模な国家プロジェクトの話が出てきているけれど、情報の大海の上を動き回って海面ばかり見渡しているだけでは不十分で、情報の中に深く潜っていく必要があるのである。
そのために重要なことは、コンテンツの表層的な解析結果にばかり依存して思考停止するのをやめることなのであるが、コンテンツの深い意味を考えることに関して、なかなかセンスのよい人が今あまりいないような気がするのは僕だけだろうか。

投稿者 nagao : 22:33 | コメント (232) | トラックバック

2007年03月24日

次の3年間に向けて

2002年4月に大学で研究室を設立して、ちょうど5年がたった。
5年間の確かな成果と言えるのは、博士号取得者をようやく一人出すことができたことぐらいだろうか。
研究に関しては、結局、満足のいく成果を出すことができなかった。

もちろん、学生が学位を取るためには研究成果を出して論文を書かなければならないのであるが、僕にとっては、学生たちがどんなに論文を書いても、実装されたものがちゃんと研究室で引き継げる形で共有可能になっていないものは、研究室の成果として認めることができない。

僕のいる研究室では、主に次の4つの研究を行ってきた。

1.コンテンツへのアノテーションの枠組みに関する主に基礎的な研究
2.特にビデオを対象としたアノテーションとその応用の研究
3.特に対面式の会議を対象とした実世界コンテンツの制作と利用の研究
4.個人用の知的な乗り物とその応用、またそれを取り巻くインフラに関する研究

1は、僕が大学の教員になる前から携わっていた研究である。
そもそも、僕が大学に移ったのは、これに関する研究をじっくりやってみたいと思ったからである。
博士課程の学生が中心になって作ったAnnphonyという名前のシステムはこの研究の一つの具体的な成果となるものと思っていた。
僕も学生と一緒にAnnphonyを設計している段階でかなりいろいろなことを考えることができ、また世界的な研究動向もだいたい把握することができた。
でも、残念ながらこのシステムは未完成であり、ちゃんと完成する目処も今のところたっていない。

2は、1の派生物の一つである。
たまたま学生がやる気を出してくれたおかげで、また、もともとそれほど複雑なものではなかったため、具体的なものができたのは比較的早かった。
しかし、その後がうまくいかなかった。
その学生は自分の作ったものに自信を持ったのか、僕の意図とは異なるものを作り始めてしまった。
それ自体は別に悪いことではないが、本来やるべきこと(つまり研究)がおろそかになってしまった。
やるべきことは、具体的なものができたら早めに公開して実証実験を開始して、それを通じて知見を深めることだったのである。
これは、これまでの自分自身の反省も踏まえて、そうすべきだと思っている。
基礎研究ならともかく応用研究はユーザーの存在を無視して行うのは危険である。

3は、研究室設立とほぼ同時に開始した研究である。
これは、僕自身が必要としたものであった。
それは、ミーティングで同じことを2度も3度も言うのがものすごく嫌だからである。
それに、研究室のゼミは全員の時間を共有しなければならないから、できるだけ無駄にしたくない。
そのための一つのやり方が、ミーティングの詳細な記録を取って、単なる記憶の補助以上のことに使えるようにすることである。
会議記録を取るやり方に関してはかなりノウハウが得られたが、その利用に関しては、まだまだ、できてあたりまえの程度のことしか実現されていない(これについては前々回のエントリー「議論というコンテンツ」を参照してください)。
かなりの研究資財(といってもたかが知れているが)とマンパワーを投入したにも関わらずである。

4は、大学に来て突然やってみたくなった研究である。
これはソフトウェアだけでは実現できないから、当然、ハードウェアを含むさまざまなものを新たに開発する必要が出てくる。
以前にも(会話型)ロボットを作ってみたことがあったが、結局デモ以上のことができず、ほとんど何の役にも立てられなかったことが不満だった。
今度は、もう少しまじめにハード(メカニズムやデバイス)とソフト(主に制御インタフェースとコミュニケーション機能)を作ってみようと思ったのである。
目先の応用にとらわれないで、未来を見据えてものづくりができるのが大学の利点の一つであろう。
だから、人間と一体化して実世界と情報世界を有機的に統合する新しいマシンを創造してみることにした。
その一つの具体例が、個人用の知的な(さらにネットワーク化された)乗り物である(当然、ジンジャーというかセグウェイには大いに触発された)。
これは結構面白くて、8台の実機を試行錯誤しながら設計・開発した。
しかし、なぜか学生たちはメカにはほとんど興味を示さなかった(単にめんどくさいことが嫌なだけかも知れないが)。
それで、僕は一人でメカの設計と機能を考え、デバイス(主にPhidgetsと呼ばれる開発キットを用いている)とソフトウェアに関して学生たちの力を借りた。
もちろん、学生たちに卒論や修論を書かせることはできたけれど、それらの内容は僕が期待したもののほんの一部であった。

まあ、贅沢を言えばきりがないのであるが、それでも、5年という長い時間をもっとうまく使えなかったのかと、忸怩たる思いである。


「ほんとうに優れた先生とは、自ら直接何か手を下さなくても、生徒たちがやる気になり、よくなっていく。そういうシステムや空気をつくることのできる人だ。」(齋藤孝著「教育力」岩波新書 2007 184ページより)

この言葉は、今の僕にはとても重い。
今の僕は明らかにこの言葉の言う「優れた教師」ではない。
しかし、教育に対する責任は強く感じているし、自分の夢を学生に押し付けたりはしない。
ただ、研究に対する情熱を学生たちと分かち合いたいし、それを研究室の(つまりメンバー全員の)成果に結び付けたいと思っている。


さて、これまでの反省も踏まえながら、それぞれの研究に関して、次の3年間の目標を考えてみようと思う。
これは僕自身の決意の表れでもある。

1に関しては、Annphonyの拡張版を完成させ、任意のCMSの共通のミドルウェアとして公開する。
そして、任意のコンテンツの任意の部分を外部からリファーできる(ただし、コンテンツ制作者が制限を加えることができる)ようになり、それによってコンテンツの部分引用とそれに基づくコンテンツ派生があたりまえにできるようにする。

2に関しては、「ニコニコ動画」のような自由すぎてとりとめのなくなったサイトが飽きられるようになり、もっとまじめな作法にのっとった、もっと役に立つ動画アノテーションが定着するとよいと思う。
そのためにやるべきことは、特に前提知識がなくても、いつのまにか僕らの作法に従ってしまうような、うまいインタフェースを開発することである。
それを作ると同時に、1の枠組みを利用して、動画コンテンツの新たなエクスペリエンスを提供する。

3に関しては、僕らが発明した会議の記録と再利用の仕組みを発展させて、それなしでは時間がもったいなくて(特にクリエイティブな)会議などやる気にならない、というものを作る。
当然、僕らの考えたデバイスももっと洗練された(レーザーポインタやICレコーダのように)会議における必須のアイテムになるようにする。
やはり、できるビジネスマンはアイディアや発想を大事にするだろうし、グループのコミュニケーションからそれらが生まれることをよく知っているだろう。
だから、会議の記録と再利用の仕組みは、頭のよい人がもっと頭がよくなるための有効なツールになるはずである。

4に関しては、あと3年でどこまでできるかよくわからない。
しかし、やってみたいことはいろいろある。
まず、自分たちだけで作るのはもう限界に近いので、企業と組んで、新しい乗り物のプロトタイプを作る。
これはどうやら実現できそうだ。
次に、ぶつからないで進める仕組みを作る。
もちろん、これまでに考えた、協調動作や自動追尾などの機能もブラッシュアップする。
さらには、空中に浮くための仕組みを作る。
これは屋外で、走行が困難な場所でもちゃんと動けるようにするためである。
タケコプターみたいに自由に空を飛べるパーソナルマシンができればもっと面白いが、さすがにエネルギー革命でも起こらないと実現できないだろう。


とにかく、これからはできるだけ時間を無駄にしないで、目標に向ってしっかり努力していこうと思う。
僕は、自分が教育者としてどれほどの人間なのか次の3年間ではっきりさせたいと思っている。

投稿者 nagao : 14:38 | コメント (200) | トラックバック

2007年03月03日

集合知 VS 集合愚

最近、月刊アスキーという雑誌の取材を受けた。
実際は取材というより、僕がアスキーの本社に行って、雑談とデモをしてきただけなのであるが。

月刊アスキーという雑誌は、ついこの間、かなり大規模な路線変更を行って、僕を含む多くの読者を驚かせている。
僕も最初、新装丁となったこの雑誌を見て、思わず目を疑ってしまった。
なんだか、日経トレンディとかDIMEみたいな、大衆に迎合しまくりなハイテク情報誌に成り下がってしまったという印象を受けた(ワイアード日本語版とかbitとか、好きな雑誌がなくなってしまって、数少ない楽しみな雑誌の一つだったのに)。
あまりにひどい変わりようなので、大学での定期購読を中止してしまった。

でも、知り合いの清水さんに頼まれたこともあって取材を受けることにした。
この清水さんというのは、ドワンゴという会社の元社員で、現在は独立してユビキタスエンターテインメントという会社の社長である。
僕が未踏ソフトウェア創造事業のプロジェクトマネージャをしていたときに、応募してきて以来の付き合いである。

彼は「ニコニコ動画」の企画立案とプロトタイプ開発に関わっている。
ニコニコ動画をご存知の人は多いと思うけれど、要するにオンラインの動画の任意のシーンに自由に落書きができるサイトである。

これは、僕たちの提供している動画共有・ビデオブログサービスSynvieにインスパイアされて作られたそうである。
僕が彼にSynvieを見せて、この仕組みの将来性を語ったことがきっかけだった。

清水さんはこう言っていた。
「長尾先生はSynvieで集合知を目指しているのでしょう。「ニコニコ動画」は違います。あれは、いわば集合「愚」です。別に何の役にも立ちません。エンターテインメントとしてはそれでもいいんです。」

それに対して、僕はこう言った。
「だったら、僕らの研究成果を参考にした、なんてことを謝辞に書くのをやめて欲しい。僕らの思想を曲解して集合愚なんかの手段に利用されてしまうなんて冗談じゃない。」

偉そうなことを言っているように聞こえるかもしれないけれど、僕たちのねらいは初めから、不特定多数の人から知恵や知識をかき集めて、そのエッセンスを何らかの形式知として利用可能にすることだったのである。
Synvieの基になった研究では、視聴者が、動画に対して意味的な情報を付け加えるためのさまざまな仕組みが導入されていた。
だから、僕はその研究を発展させて、Web上で実験できればよいと思っていた。
しかし、僕のところの学生が未踏ソフトウェア創造事業に応募して開発したものは、僕の期待したものとはかなり異なっていた。

結局、Synvieにおいて、僕が提案して実装されたものは次のものである。
1.視聴のみの場合は必要ないが、動画に何らかの情報を付与する場合は必ずログイン(ユーザー認証)すること。
2.動画のフレーム画像内の任意の領域に注釈が付けられること。
3.動画の任意の時間区間(シーン)を引用したブログが書けること。

Synvieの実証実験にあたって、これらの仕組みを省略して公開すると言っていたので、断固反対した。
それでは公開する意味がないと思ったからだ(「ニコニコ動画」がこれらの機能を持っていないにも関わらず、非常に多くのユーザーを獲得している状況は、僕にとっては皮肉としか言いようがない)。

逆に、提案したけれど、結局実装されなかったものは次のものである。
1.動画に付与する情報の意味的タイプや属性を追加する機能。
2.動画の任意の箇所に質問を付与して、それに任意のユーザーが回答できる機能。
3.動画の(Synvie上で指定した)引用部分を編集するためのブログ(主にMT)用プラグイン。

僕が代わりに実装してもよかったのだけど、開発言語がJavaではなくPHPであったため(僕はJavaで実装して欲しいとお願いしたのだけど受け入れられなかった)、なかなかやる気が起こらなかったのである。

実は、これらは、動画を中心にして集合知を形成するという目的のために、僕が考えたものである。
ここでいう集合知とは、コンテンツの意味を機械的に扱うための、体系化された知識の総体である。

Wikipediaは、事象や人物に関する知識を集めたものであり、正確さに関する議論は常にあるけれど、多くの人にとっての有益なリファレンスとなっている。
これと同様なことを動画コンテンツに関して行おうと思ったのである。
コンテンツおよびその要素を対象とすることによって、投稿される情報の指示対象をより明確にして、また入力の段階で情報の種類がある程度限定されるようにして曖昧さを少なくし、機械的な処理をやりやすくしようと考えた。


動画は、それ自身の解析をいくらがんばっても、その意味が明確にならない。
それは、動画の撮影時においても、デジタル化する過程においても(今のところ)意味的な要素が入る余地がないからである。
もちろん、限定的な状況ならばパターン認識技術が使える場合もある。
たとえば、監視カメラの映像内に顔画像の領域を見つけるような場合である。
しかし、パターン認識技術によって選択された顔画像の候補が本当に顔を表しているかどうかは機械にはわからない。

だから、人間が見て何らかの解釈を加えていかないと動画の意味内容は機械には扱えない。

現在のところ、動画を中心に集合知を形成する僕たちの試みは、とても成功しているとは言えない。
僕はまたしても将来の方向性を見誤ってしまったのだろうか。

集合愚に過ぎないニコニコ動画がいつか集合知に転化することがあるのだろうか、それともその前に僕たちの試みが実を結ぶ日が来るのだろうか。

動画を使ったユーザーエクスペリエンスの仕組みは、これからもさまざまなものが生み出されていくと思われるけれど、動画の意味をちゃんと扱うことができなければ、本当に高度なサービスは実現できないだろうと思う。

だから、現時点で人気があろうとなかろうと、僕たちは僕たちの研究を続けていかなければならない。
実装力が決定的に不足しているのは、大学という場である限りやむを得ないことなのかも知れないけれど、何とかして自分たちの理想に近づけていきたいと思っている。

投稿者 nagao : 14:38 | コメント (1547) | トラックバック

2006年09月26日

Webの望ましい進化(前編)

大変ご無沙汰しています。
最近、InterCommunicationという雑誌に記事を書きました(11月発売号に掲載されるそうです)。
この雑誌が、このたびWebの未来に関する特集を組むのだそうです。

担当者は最初Web X.0という特集タイトルを考えていたそうなのですが、Web 2.0が明確な意味を持たないバズワードだと言われ始めてきたこともあり(僕も一時期はそれが重要なキーワードだと錯覚していましたが)、このタイトルは変えた方がよいと思います、と担当の人に言いました。

このブログでは3回に分けてこの記事の草稿を掲載します。
何かコメントをいただけましたら、できるだけ反映させたいと思います(原稿の締め切りは10月15日です)。

かなり長いですが、読んでいただけると幸いです。
どうぞよろしくお願いいたします。

ちなみに、内容の構成は以下の通りです。

Webの望ましい進化

前編(今回分)
1.テキストコンテンツの衰退

中編(近日公開)
2.バイナリーコンテンツとライフログ

後編(近日公開)
3.テキストコンテンツの復活
4.人間が賢くなるためにWebがなすべきこと


Web上のものに限らず、人間の生み出すもので最も重要なものはコンテンツであると私は考えている。
だから、私にとってのWebの望ましい進化とは、コンテンツをより多様に、また意味的により高度にする仕組みを備えることである。
「より多様に」というのはこれまでのコンテンツのあり方に縛られない新しい発想でコンテンツを制作できるようにしようということあり、「意味的により高度に」というのはコンテンツの意味を表現する仕組みを取り入れて、コンテンツを人間にも機械にもより正確に理解(あるいは処理)できるようにしようということである。
これからそれらについて具体的に述べていこうと思う。
その前に現状の問題点について考察してみよう。


1.テキストコンテンツの衰退

Webがもたらした、人類へのマイナス面の最大のものは、テキストコンテンツの(相対的な)価値の低下だと思う。
テキストコンテンツとは言うまでもなく、人間の執筆する文章をメインとした(補助としての画像等を含んでも構わない)コンテンツである。
その典型例は、マスメディアの提供する(主にニュースに関する)記事、オンラインジャーナルなどの学術論文、企業などの提供する製品・サービス・イベント情報、そして個人が執筆・公開するブログである。
これらはあたりまえに存在し、私たちは普段それらをかなりの時間と労力をかけて消費している。
これらはどれもそれなりに信用でき、それなりに信用できない。

よく読んで考えて、時に他のコンテンツと照らし合わせながら信用できるかどうか判断する。
それはもちろん正しい姿勢であるし重要なことではあるが、かなり面倒くさい。
読んだものはすべて信じる、ということならば、その人は単に騙されて振り回されるだけだし、すべて信じない、ということなら読むために要した時間がもったいなすぎる。
結局、現状では、判断するのが面倒なら読むな、という結論になるだろう。

いや、テキストコンテンツが信用できるかどうかは、文章の表現や他者による評価や評判でだいたいわかるから、判断にそんなに手間はかからない、という人もいるだろう。
しかし本当にそうだろうか。
文章が一見よく書けているとしても、そのコンテンツを高く評価する推薦者がいるとしても、自分でよく読んでみて違和感や矛盾を感じるものは鵜呑みにはできないし、するべきではない。
その違和感や矛盾は錯覚や誤解かも知れないから、やはり何らかの根拠が必要だろう。
それは、もう少し他の文献を当たったり、人と議論をしたりして、それなりに努力しなければ手に入れることはできない。

コンテンツの消費を単なる娯楽と割り切るならともかく、少しでも自分を賢くしたいと思うのならば、テキストコンテンツとのつき合い方はもはや簡単なものではなくなった。
その結果、自分の払うべきコストとのバランスにおいて、テキストコンテンツの価値は低下したのである。

参照される頻度が高く、内容的に質の高いものがWebに存在しないわけではない。
しかし、あまりにも玉石混淆で、読むべきものとそうでないものを事前に区別する確実な方法が存在しない。
つまり、読むべきものかどうかは、すべて読んでから判断しろ、ということになってしまう。
それも仕方がないと考えるならば、せめて候補を人間の許容できる量に限定して欲しい。
適切なものを選び出すことはおろか、おおよその範囲を限定することすら困難になってしまったのは、まさにWebのせいである。

これには異論を唱える人も当然いるだろう。
自分のお気に入りのサイトがあり、それを定期的に見ている、そのサイトの記事はどれも良質で読み応えがある、だからテキストコンテンツの価値が低いなどとんでもない、という具合に。
また、検索エンジンによって読むべきものがおおまかに限定されているのだから、必要なものを選び出すのはむずかしくない、と言う人もいるだろう。
しかし、テキストコンテンツ全般で見ると、やはり価値は下がっていると思うし、検索エンジンが読むべきものとそうでないものを区別しているとも思えない。

コンテンツ全体を見渡して、あなたが今必要としているコンテンツはこれでしょう、と薦めてくれる仕組みは現在のWebには存在しない。
もちろん、検索エンジンを使って適当に選んで、それを読んで満足できるのならそれでよい場合もあるが、とりあえず選んで読んだものより内容が正確で自分の要求に合ったものがあるのかないのか、あるとしたらそれはいったいどうやって探せば見つかるのか、などということは、おそらく人間が許容できる時間内に答えが見つかるものではなくなってしまった。
それは、テキストコンテンツがあまりに無責任に無秩序に大量に生産されるようなシステムが実現されてしまったからである。

では、Web以前ではどうだったか。
テキストコンテンツを広く流通させるほとんど唯一の方法は、紙媒体による出版だった。
これは結構、手間もコストもかかる。
だから、必然的に、質の高いもの(多くの人の関心を引きそうなことで、知的好奇心を満たしてくれそうなもの)を出版しようという動機につながったと思う。
だから、私は本屋に行くのが好きだったし、整然と並べられている本のタイトルを読んでいるだけで、わくわくさせられたものである。

また、日本には真のエリートが育ちにくいためかThe Washington PostやWall Street Journalのようなクオリティ・ペーパーと呼べるような新聞がない(ちなみに、真のエリートとはありていに言えば「ノーブレス・オブリージュ」の精神を実践している人のことである)。
今の日本で発行される媒体で、日常的に目を通して、それほど時間をかけずに理解して信頼できるリソースはほとんどない。
ならば、日本のものじゃなくても構わないのだから海外のクオリティ・ペーパーを読んでいればよい、と思うかも知れないが、記事の対象となる領域が偏っているのでそれだけ読めば十分というものではない。
それに、そもそもの成り立ちから見てもクオリティ・ペーパーは広く浅い内容を扱うものではない。

最近では、出版物もクオリティの低下が著しいようだ(それでもWebのテキストコンテンツよりはましだと思うので、私は一般に書籍の一部しか引用していない)。
「戦争論」(私の世代では、「東大一直線」)で有名な小林よしのりの「中流絶滅」という漫画(小学館 2006)にはこんなことが書かれている。

「いかにも平易なタイトルをつけ、テレビの奥様向けサスペンス・ドラマみたいにていねいな副題もつけ、人気作家の推薦文を帯でアピールして、大衆の教養コンプレックスを癒す装いで最近の新書はまんまと売れている。」

私もまったく同感である。
最近の新書は確かに読みやすいと思うが、それを読んで賢くなったという気があまりしない。

人間が賢くなるために必要なことは質の高い文章を読むことだから、質の低いWebのテキストコンテンツを読み続けることは、貴重な時間の浪費につながってしまう。

Webには質を測るわかりやすい指標の一つである、ある種の権威付けが存在しない(ただし、学問の世界における権威付けはそれなりに機能している)。
もはやWebではマスメディアの優位性はほとんどない。
マスメディアが平気でデタラメを撒き散らしていることに、多くの人が気づいてしまったからだ。
一昔前にはそれなりに権威があった(と思われる)朝日新聞なんか、もはやとても信用する気が起こらない(有名な「1発だけなら誤射かもしれない」発言を参照のこと)。

確かに、たとえばCNETの記事やWikipediaきっこのブログなど、読み応えのあるテキストコンテンツもいろいろあるだろうが、それを読んで何かを学ぶというより、それが自分の中での議論を呼び起こすきっかけになるということが多い(つまり、その内容を信じるかどうかの判断を常に必要とする)。
それでも考えるきっかけになることはよいことだが、やはり先人の知恵が凝縮されたような本を読んで頭をフル回転させた方が賢くなるという点では効率がよい。

Web上の(というか、もはやすべての)テキストコンテンツをシステマティックに吟味し、現在あるいは将来の自分にとって重要なものを探してランキングしてくれる仕組みが必要だ。
それを実現するには、コンテンツに人間の力で意味情報を付け加えていくやり方(後で詳しく述べる)が最良の解決策だと思う。

うまくない一つの方法は、何らかの確率・統計的な手法でテキストを処理し、無理矢理に重要度や関連度を計算してしまうことである。
コンテンツの意味は確率や統計では扱えない。
人間の生み出す情報は高度な文脈依存性を持っているからである。
コンテンツの外にあるもの(コンテンツ中に陽に含まれていないもの)をうまく組み合わせていかないとその意味を適切に扱うことはできない。
だから、今のWeb検索エンジンは、ユーザーの求めているものとそうでないものを区別することができないのである。

Googleはハイパーリンクの構造を使ってキーワード検索した結果をランキングする手法を実用化したが、もうそんなやり方ではどうにもならないほど玉石混淆のテキストコンテンツが氾濫してしまった。
ブログや掲示板がその要因の一つになっていることは間違いないだろう。

ソーシャルブックマークのように、人間が内容をよく読んで何らかの評価をすることで読むべきものをガイドする、というやり方がある。
これは結構有効に働きそうに見える。
しかし、やっぱりそれだけでは十分ではないし、多数決のようなやり方で個人に適したランキングができるとはとても思えない。
他人の意見に流されやすい人はそれでもいいが、Web上のコンテンツが鵜呑みにできなくなったように、大多数の意見などもそのまま受け入れることができないのである。
人工知能という分野を切り拓いた功労者の一人であるマーヴィン・ミンスキーは、こう言ったらしい。

「みんなと逆のことをやれば、だいたい正解である。大多数の人間は間違っている」 (「素人のように考え、玄人として実行する」(金出武雄著 PHP研究所 2003)より)

基本的に、多くの人の力を借りなければコンテンツの意味の問題は解決できない。
しかし、ランキングまで人の力を借りると自分の都合にうまく合わせることができない。
ランキングは個人の要求や文脈に応じて変化すべきものだからである。
大多数の人の考えを偏りなく考慮して普遍的な答えを見い出そうとすると間違ってしまうのである。

「みんなの意見は案外正しい」(The Wisdom of Crowds (James Surowiecki, Random House, Inc., 2004)の邦題)のは、多くの人と問題の文脈が共有できる(同様の経験をしている)かそもそもその文脈があいまいで特定できない場合に限られるだろう。

そして、コンテンツを吟味するという問題がより顕著になってくるのは、これからさらに増加していくバイナリーコンテンツ(映像や音声)である。

投稿者 nagao : 00:04 | コメント (19) | トラックバック

2006年06月21日

ビデオブログの新しいサービスを始めました

僕のいる研究室の学生が中心になって作ったSynvie(シンビィ)という名前のシステムがようやく公開可能になりましたので、ビデオの共有とビデオブログのサービスを開始しました。
この名前は、syn* of movieに由来します。
syn*にはsyndicationやsynthesis(動画の配信や合成)などが当てはまります。
また、日本語の審美(美しいものを見分けること)にもかけているそうです。

このシステムを試してみたい方はここからお入りください。
大学の一研究室がやっているので、多分に実験的な要素が強いですが、もしかしてたくさんのユーザーが参加してくれるようになったら、どこかの会社と提携してサービスを続けていきたいと思います。

ビデオブログ、というかビデオ共有サービスはすでにいろいろ存在します。
たとえば、YouTubeのようにいつのまにかメジャーになったサービスもありますから、いまさら何をやろうというのか、というご意見がありましたらそれはもっともですし、僕も「あえてすでにいろいろな人がやっていることをちょっと形を変えてやる」というのは研究者としてどうなのか、とは思います。

では、なぜやるのかと言いますと、ビデオ共有やビデオブログの先にあるものを見てみたいと思うからです。
そのためには、ビデオをWeb上に置いて(ビデオ全体だけでなく任意のシーンを)直接的に参照可能にして、ブログを書いて紹介する、ということがあたりまえになって欲しいのです。
ブログに書いてある内容がビデオのどの部分を参照しているかがわかりやすくなっていると、読む方にも書く方にも都合がよいでしょう。

そういうことがあたりまえにできている状態ならば、ビデオを口コミで宣伝したり、ピンポイントにシーンを検索したりするのが今よりずっと簡単になるでしょう。

CNET Japanの最近の記事「ビデオブログ「ブイログ」、目指すは映像の大衆化」でも、ビデオブログの話題が取り上げられています。
この記事で言うビデオブログは、主にビデオ(プレイヤー)をブログエントリーに埋め込むタイプのものですが、僕たちのはそうではありません。
ブログ上に表示されるのは、ブログで引用されているシーンの(リンク付き)サムネイル画像で、ビデオそのものはシンビィのサイトで視聴するようになっています。

それは、シンビィがビデオを中心にしてコミュニケーションを行う広場であるからです。
ビデオを引用しているブログへのコメントと、ビデオそのものへのコメントは区別して扱うべきだと思います。
そのため、ブログへのコメントは各ブログサーバーで、ビデオへのコメントはシンビィで管理します。
つまり、ブログからビデオへ、ビデオからブログへと行ったり来たりできるようにすることによって、コミュニケーションの機会と多様性を拡大していけるとよいと思っています。


ビデオコンテンツの重要性は、これからさらに高くなっていくと思われます。
でも、だからと言って、テキストコンテンツの重要性が下がるわけではなく、人間のアテンションをビデオコンテンツの任意の要素に適切にナビゲートするという新たな役割も担うことになるでしょう。
僕は、今回オープンになったこのシステムによって、ビデオに限らず非テキストコンテンツの可能性が大きく拓かれると思っています。


以前のエントリー「ビデオブログでできること」を書いたときに僕が考えていたことと、実際にサービスを始める段階で実現したことの間には多少のずれがあります。
僕はビデオをきっかけにブログを書くということを主体に考えていましたので、ユーザーがまずビデオを見てコメントを書きたいシーンにマーキングをしておいて、その人のブログ編集ページ(あるいはブログエディタ)を呼び出して、マーキングしたシーンへのリンクやサムネイル画像を取り込んで、エントリーの内容を書くという仕組みにするのがよいと思っていました。
しかし、それをやるには、ビデオ視聴とマーキングのサイトを立ち上げるだけでなく、さまざまなブログツール向けにプラグインソフトを作らなければなりません。
まあ、やってやれないことはないと思いますが、ちょっとオーバーヘッドが大きいので、とりあえず今回は、ブログエントリーの元になるHTMLソースをシンビィが生成して、それを自分のブログに貼り付けるという、比較的原始的なやり方を採用しました。

そのときに、シンビィのロゴイメージをブログエントリーの最後に貼り付けていただきたいと思います(システムの生成するHTMLをそのままコピペしていただければ結構です)。
このロゴイメージは、ビデオについて書かれたブログの存在をシンビィが知るために利用されます。
これは、ビデオの内容を解析して利用するときに、ブログの内容を参考にしようと思っているためです。
もちろん、このように自分のブログを自動的にウォッチされるのはうれしくないと思われる方は、ロゴの表示に関するHTMLタグを削除していただければ結構です(その部分にはシンビィからのコメントがついているのですぐにわかります)。

もし、ブログから引用元のビデオに誘導するだけでなく、そのビデオから自分のブログに逆誘導して欲しいと思われる方は、そのロゴイメージを貼っておいていただきたいと思います。
これによって、ビデオシーンからブログエントリーの引用箇所へのトラックバックが自動生成されます(もちろん、自動でトラックバックリンクが張られるのをブログの著者が拒否することもできます)。


さて、僕たちのビデオブログはビデオとブログを密に結び付ける仕組みですが、それによってコンテンツの新しいネットワークが構成されるようになります。
そのネットワークは、引用に基づく双方向のリンクによって構成されます。
引用に基づくリンクは、一般のハイパーリンクに比べて、リンクの両端のコンテンツ間の高い関連性を表していると思われます。
それをうまく利用すれば、かなり精度の高いビデオ(シーン)検索が実現できるでしょう。

今のところ、シンビィにはまだあまり面白いコンテンツが掲載されていませんが、今後はケーブルテレビ等のコンテンツホルダーと提携したり、大学の講義コンテンツをアップするなどして、少しずつ充実させていきたいと思います。
また、みなさんからのビデオ投稿も受け付けています。
是非、ビデオを撮ってシンビィで共有して、その内容に関してブログで思う存分語ってみてはいかがでしょうか。


ところで、僕たちのビデオブログのサービスは、可能な限り口コミで広めていきたいと思っています。
そのため、このブログに限らず、さまざまなブログサービス上で、シンビィを使ったビデオブログエントリーを公開していきたいと思います。
これを読んでいる方でこの試みが面白いと思われた方は、是非シンビィにログインして(今はさしあたって、はてなのIDを利用しています。将来はYahoo!などのIDも使えるようにしたいと思います)、ビデオを投稿したりコメントやブログを書いたりしていただきたいと思います。

投稿者 nagao : 11:28 | トラックバック

2006年06月11日

コンテンツよ永遠なれ(後編)

僕のブログによく出てくる言葉にアノテーションというものがある。
アノテーションという言葉は、注釈とか補足情報などと言い換えられることもあるが、僕はより広い意味で用いている。
コンテンツ(の要素あるいは全体)に構造(および属性)や解釈や評価を関連付けること、あるいは関連付けられた情報一般(メタコンテンツとも呼ばれる)である。
メタデータという言葉の方が一般的であるが、アノテーションには人間がその作成に積極的に関与するというニュアンスを込めている(ゆえに、全自動アノテーションというのはあり得ない)。
アノテーションをこのように定義したのは僕が最初だったと思う(たぶん)。
それ以前は、アノテーションは割と狭い意味で捉えられていた。
もちろん、Webコンテンツへのアノテーション付与という話はかなり以前からあり、主にテキストコンテンツにコメントやリンクや属性情報を追加するものだった。

Webコンテンツへのアノテーションの実現法の最も簡単なものは、HTMLのMETAタグを用いる方法で、メタ情報がコンテンツに埋め込まれたものである。
しかし、それだとコンテンツの制作者にしかメタ情報を編集できないので、メタ情報とコンテンツを分離して扱う必要が出てくる。
ちなみに、僕は一般のリンク情報もすべてコンテンツと分離して扱うべきだと思っている。

そのような、コンテンツに埋め込まれていないアノテーションを、外部(external)アノテーションと呼ぶ。

外部アノテーションに関する未解決の問題の一つに、オーファン(orphan:みなしご)アノテーションというのがある。
これは、アノテーションの指し先であるコンテンツ(あるいはその要素)が削除や編集されること(URLの変更も含む)によって、何のどの部分へのアノテーションなのかわからなくなってしまうことである。

この問題を根本的に解決する方法は、コンテンツの永続化以外にはない。

そして、Web上のすべてのコンテンツが永続化されれば、任意のコンテンツの任意の部分に関するアノテーション(さらにアノテーションに対するアノテーション)も永続化することができる。
そして、アノテーションを用いてコンテンツを適切に変換することができる。

そのための仕組みに、僕のいる研究室で研究開発しているAnnphony(アンフォニー)とSemCode(セムコード)がある。

アンフォニーはRDF(Resource Description Framework)の仕組みを拡張して実装したもので、コンテンツの要素をポイントする一般的なフレームワーク(Element Pointer)と、コンテンツ(の要素)の集合を主語として記述するためにRDFのシンタックスを拡張したもの、さらに、アノテーションを永続化して固有リンクを付け、それへのアノテーション(メタアノテーションと呼ばれる)を同様に記述できるようにした仕組み、アノテーションスキーマを共有し再利用を容易にする仕組みなどを含んでいる。

アンフォニーと似たシステムにSoya(ソーヤ)というものもある。
これは僕がプロジェクトマネージャをやっているIPA未踏ソフトウェア創造事業の採択者が中心になって開発しているものである。
このシステムの特徴は、大量のRDFデータを用いた検索が可能な点である。

また、セムコードは僕のライフワークの一つでもあり、アノテーションに基づいてコンテンツを自在に変換(トランスコード)するための拡張可能なシステムである。

セムコードの運用上の特徴の一つは、プロキシサーバーを用いるという点である。
ちょっと前はAkamaiのWebキャッシュなどのプロキシサーバーがビジネスになっていたが、今はどうだろう。

僕はプロキシサーバーがWebサービスの一翼を担い、コンテンツを選択すると適切なプロキシが自動的に選ばれる、という仕組みができることを予測していた。
その仕組みをWebブラウザが備えていると都合がよいので、IEなどが対応してくれるのではないかと考えていた(僕らは新しいブラウザやプラグインを作る予定はない)。
しかし、現在に至るまで、そのような動きにはなっていない。
未来の予測は難しいと痛感する次第である。

しかし、それでもセムコードの研究をやめるわけにはいかない。
それがWeb上でコンテンツを柔軟に拡張する有力な手段であると考えているからである。


プロキシサーバーをWebのアプリケーション開発の重要なプラットフォームと認識していた人は僕の他にも何人かいる。

たとえば、Novell社のドリュー・メージャーという人はこう言っている。

プロキシをインターネットにおける開発用の新しいプラットフォームとして考えるのは、多くの点で大胆な行動と言え、我々は気軽にそうしようとは考えていない。
インテリジェンスは一端にだけ存在すべきであると主張し、それに反対している開発者もいる。
しかし、利点をよく考えてみると、優れたプロキシ・アーキテクチャの価値に気付くはずである。
そのフレームワークが論評の段階を過ぎ、どこか革新的な新しいアプリケーションが登場すると、プロキシ・サービスはインターネット開発における次の偉大なる飛躍になる。

(「ソフトウェアの未来」(翔泳社 2001)より)

また、この分野で重要な仕事をした人たちにIBMアルマデン研究所のポール・マグリオの率いるグループがある。
僕は彼らと何度か会ったことがあり、彼らの開発したシステム(WBI: Web Intermediaries)をセムコードの実装基盤としていた(ちなみに、WBIのロゴはIBMのロゴを180度回転させたものだそうである)。
マグリオは次のように言っている。

従来のWebプログラミングでは、コンテンツの最終形態をサーバで生成することに焦点を当てている。
「仲介人(intermediary)」は、サーバ~クライアント間を流れる情報に複数のプログラムから処理を実行できるようにすることによって、シングルポイントの制御モデルを切り開く。
情報はこれまでの何年間も、ルータおよびファイアウォールをそのまま通過してきた。
現在では、分散キャッシュおよびコンテンツ適合エンジンが、情報をインテリジェントに処理し始めている。
近い将来は、あらゆる種類の「仲介人」がソース情報とユーザの間の優れたパイプとなり、オンライン・コンテンツを大幅に強化することになる。
Web「仲介人」サービスの例は、オンライン・ショッピングでの価格比較サービス、航空券予約窓口、ニュース集約、プライバシ・マネージャ、Webページ注釈サービスなど、すでにたくさん存在している。
マシンで判読できる形式で情報を配信するコンテンツ・プロバイダは、これからますます増える。
そのため「仲介人」は、ターゲット・ユーザに代わって、目的のコンテンツをたやすく探し出せる。
それに基づいて、複数の仲介人が同一の情報に対してさまざまなルートを提供し、さまざまな人々、状況に合わせて情報をカスタマイズするようになる。
将来、アプリケーションを設計する場合、および情報にアクセスする場合は、情報の通り道に沿って配置された複数の高度な「仲介人」の存在を頼りにすることになるだろう。

(「ソフトウェアの未来」(翔泳社 2001)より)

この意見には僕も同感なのだけど、現時点では彼らの予測したような状況には至っていない。
もちろん、一部では「仲介人」が重要な役割を果たしているかも知れないが、Web全体に影響を与えるようなムーブメントにはまだなっていない。

彼らはプロキシサーバーによる革新的なアプリケーションを実現したわけではないけれど、その実現の可能性を示唆していた。
僕は彼らの主張に触発されたわけではないが、プロキシサーバーをベースにした、アノテーションに基づくトランスコーディング(僕はそれにセマンティック・トランスコーディングという名前を付けた)は、研究する価値が大いにあると思った。
そして、このシステムの最初のプロトタイプをデモしたのは、1999年のことである。

Webページ内のイメージや(HTMLタグ付きの)テキストへの(リンクやイメージを含む)コメント付与、テキストの抽出・要約・翻訳・音声化、(少し後になったが)ビデオ要約・翻訳・テロップ付け、辞書引きによる専門用語のインタラクティブな言い換え、など、およそアノテーションとトランスコーディングでできそうなことはいろいろやった。

僕らが当時やらなかったことで、そのむずかしさを予感していたものは、まさにXanaduの目指している編集・引用の仕組みである。
ただし、たとえば、トランスコーディングの仕組みを使ってドキュメントの任意の要素にアクセス制限をかけるやり方は、IBMで電子署名などを研究しているグループが実現している。
僕はその当時はセキュリティに関する研究にまったく関心がなかったので、セムコードではまだ(ユーザー情報の保護を除く)アクセス制御の仕組みを実現していない。
あと、コンテンツの使用料や著作権料などのマイクロペイメント(少額課金と電子決済)に関してもまったく興味がわかなかったので、その仕組みを実装するのはさらに先のことになる(Xanaduではそのあたりをよく考えているようだけど)。

マイクロペイメントに関しては、SuicaやEdyみたいなプリペイド電子マネーを使えば比較的容易に実現できるから、割と抵抗なく導入できるような気がする(ケータイを持たない僕としては、お財布ケータイなんてのがあたりまえになるとちょっと困ってしまう)。
音楽配信のおかげで(それだけではないと思うが)CDが売れなくなってきたように、(印刷・製本された)本もそのうちあまり売れなくなるかも知れない。
本もCDと同様に、一冊丸ごと買うのではなく、内容をざっと見た上で一部だけ書う、というやり方が一般的になると思う。
たとえば、マンガ雑誌なんて是非そうすべきだと思う(週刊少年○○みたいなマンガ雑誌は厚さの割りに読むところが少ないと思う)。

やはり、アノテーションとトランスコーディングに基づく編集と引用は、あいかわらずむずかしそうだけど、最近の技術の進歩を見ていると何とかできるような気がする。
しかし、コピペをさせないようにする抜本的な方法については未だノーアイディアである。


Webサービスが普及して、マルチメディアを含むコンテンツへのオンラインアノテーションが実現可能になり、多くのWebユーザーがネット社会の(能動的)参加者となった今は、Xanaduを今風に実現するのに適した状況になりつつあるのかも知れない。
あとは、プロキシサーバーがもっと使えるようになるとよいのだけど。

僕は近いうちに、セムコードを拡張してWebをXanadu的なプラットフォームにするプロジェクトを立ち上げようと思っているのですが、誰かこのテーマに共に挑もうという人はいませんか?(テッド・ネルソンたちと組むのもよいですが、とりあえず独立にやりたいと思います)

投稿者 nagao : 01:02 | トラックバック

2006年06月04日

コンテンツよ永遠なれ(前編)

僕は、1996年の9月から1年間、イリノイ大学アーバナ・シャンペーン校に客員研究員として滞在していた。
この大学は、NetscapeやIEの基になったMosaicと呼ばれるWebブラウザが開発された場所である。
Mosaicを開発した学生たち(代表者は、Netscape社の創業者の一人であるマーク・アンドリーセン)が所属していたNCSAという組織(厳密には、その一部門)のある建物(Beckman Institute)の中に僕のいたオフィスがあった。

NCSAの学生ではないが、僕が知り合ったコンピュータサイエンス専攻の学生たちは、よく「Webはいずれ破綻するだろう」と言っていた。
その当時からゴミのような情報であふれていて、質の高い情報を自動的に選び出す手段がなかったからである。
そして、「Webに代わる新しい仕組みを開発しなければならない」と彼らは言っていたけれど、僕は、Webが破綻することはないと思っていた(Webによって新たな社会問題が発生するとは思っていたが)。
その理由は、Webが発明され、ほぼ世界中で使われるようになったことが奇跡みたいなものであり、同様の奇跡が近い将来に再び起こるとは思えなかったし、Webを失ったときの人類の損失は意外に大きいだろうと思ったからである。

しかし、今になって思うと、Webは早い段階で作り直されるべきだったのではないかという気がしている。
HyperTextの提唱者テッド・ネルソンのXanaduやtranspublishingの思想は、今のWeb上で完全に実現するのはもはや不可能なのではないだろうか。
その思想の根幹にあるのは、コンテンツが永続化されており、それに基づいた2次著作物や3次著作物のコンテンツは、すべてオリジナルにたどりつけるようになっている、ということだと思う。
もし2次著作物が引用を含んでいるならば、引用されている部分を変更することも削除することも、2次著作物のコンテキストが変わってしまうため、簡単にはできないことになる。
一度公開したコンテンツに関しては削除も変更も基本的には許さない、という仕組みはコンテンツ制作者にとってとても厳しく、受け入れるのが困難であろう。


僕は、基本的に、ネット上で公開するコンテンツはほとんどすべて永続的なものにするのがよいと思っている。
もちろん、公開してすぐに削除してしまいたいものもいろいろあるだろう。
ブログエントリーなんかも書いて公開した後に、あまりにも不本意なリアクションのために公開を停止しようと思ったことのある人は結構多いのではないだろうか。
僕は、自分の書いたものを引っ込めようという気にはならないけれど、絶対に消さないと決めたことがストレスになることもある(ならば初めから公開などしなければよい、と思われるかも知れないが、公開することで自分の身につくものを期待しているのである)。
また、これは自分の書いたものではないが、腹の立つコメントやトラックバックリンクなどを消したいときもある。
しかし、それらについても、基本的に消すつもりはない(スパムは当然削除するけれど)。


ところで、僕は、最近までブログの最も重要な点を軽視していた気がする。
それは、パーマリンク(permalink)である。

パーマリンク(固定リンクとも呼ばれる)はコンテンツの永続性を実現する仕組みではないが、リンクの一意性を保証することができる。
パーマリンクが指すものは基本的に常に同一のコンテンツなのである。
ただし、その指し先が常に存在するか、というとそこまではわからない。

しかし、パーマリンクがコンテンツの永続性をまじめに考えるきっかけを作ったことは間違いがないと思う。


僕のいる研究室では、コンテンツを永続化するためのアノテーションとトランスコーディングと呼ばれる仕組みについて研究している(これについては以前のエントリー「モノトニックな編集」でも触れている)。

この仕組みの特徴は、オリジナルのコンテンツはできる限り永続化し、削除や変更はアノテーション、つまりメタ情報として管理し、ユーザーのリクエスト(および視聴環境)とオーサーのコントロールに応じてコンテンツを適切に変換して見せる、というものである。
この場合の削除や変更は、原コンテンツに直接反映されるものではないが、閲覧者に届く過程で動的に反映されることになる。
閲覧者によってはあまり適切でない表現を伏字や別の表現にするなどの操作も同じように行われる。
マルチメディアコンテンツも同様に一部を見えなくしたり、オーバーレイで他のオブジェクトを重ねて表示するなどの工夫が考えられる。

かなり面倒だけど、この仕組みをWeb上にインプリメントして、運用可能にすることはできる。
しかし、それでもWebがXanaduのようになるわけではない。
それは、既存の仕組みを破壊した上で新しい仕組みを構築するわけではないからだ。

既存の仕組みは、当然、コンテンツそのものを直接編集するものである。
また、引用はほとんどの場合コピペである。
多くの人は、あまりにもそのやり方に慣れすぎていて、新しい共有・編集・閲覧・引用の仕組みになかなか順応できないだろう。

どうして今の単純でわかりやすいやり方を捨てて、より面倒な仕組みに乗り換えなければならないのか、と思うだろう。
新しい仕組みは、誰に対してどういうメリットがあるのかわかりにくいからだ。
この仕組みは、コンテンツの永続化のためのものであり、それによって恩恵を得るのは、われわれより後の世代の人々、つまり子孫たちである。

もちろん、自分のブログをずっと残しておきたいけれど、文意を歪めるような引用はやめて欲しい、と思っている人にとっては、直接的なメリットがあるだろう。
しかし、今のWeb上でコンテンツのコピペをまったくできなくするのは、かなり困難である。

たとえば、ストリーミングビデオだってクライアント側でコピーを作成することができる。
ちなみに、無料動画配信のGyaOは、コンテンツホルダーに、「コンテンツをネット配信してもユーザーがコピーを作成することは原理的に不可能です」と説明しているらしいが、コピーをとるやり方がどこかのWebページで解説されているらしい(僕は試したことはないけれど)。

実際は、Webに情報を載せたが最後、自分のあずかり知らないところでアーカイブ化されていたり、公開後に気まずくなって削除した情報も誰かにコピペで引用され、晒され続けているのだろう。
これは、コンテンツが永続化されているという点では目的が似ているのだけど、オリジナルコンテンツの管理者がコントロールできなくなるという点がダメなのである。

今まで好き勝手にコピーできていたものがこれからはできません、という話はなかなか納得がいかないだろう。

デジタル放送のねらいは、まさに簡単にコピーできないようにすることにあるのだと思うが、そんなことを言っても、テレビ画面をカメラで撮影すれば(画質は悪くなるが)コピーはできるのである。
コピーをまったくできなくするということは極めて困難なことなのである。

引用するのに、コピペするより明らかに簡単で有利なやり方を考えるべきだろう。
それは、たとえば、ある人が引用しようとしてコンテンツの任意の箇所を選択すると、制作者が期待する引用の範囲が明示され、その部分へのリンクと内容が引用先のコンテンツに表示される(見かけ上コピペしたようになる)ような仕組みである。

これはテッド・ネルソンの言うtransquotationに似ているが同じではない。
それは、このような引用のやり方と表示法は、コンテンツの編集やタグ・コメント付与、そしてアクセス制御やパーソナライゼーションなどとまったく同じメカニズムで取り扱われるものだからである。

さて、その仕組みが具体的にどのようなものになるか、については次の機会に述べることにする。
その前に、テッド・ネルソンの「リテラリーマシン ハイパーテキスト原論」(アスキー出版局 1994)をもう一度読み返すことにしよう。

投稿者 nagao : 09:10 | トラックバック

2006年05月28日

体験の新しい定義

ats.jpg

以前のエントリー「体験メディアとプライバシー」でも書いたことであるが、僕のいる研究室では、個人の体験をコンテンツとして共有し、利用する技術について研究を行っている。
日記や写真アルバムのようなものを除いて、体験をコンテンツとするための方法論はまだあまり提案されていないし、その応用に関してはさらにほとんど何も実現されていないような状態なので、研究するには良いタイミングだと思っている。
ただし、個人の行動をさまざまなセンサーを使って詳細に記録するという試みは以前からいろいろ研究されている。
問題は、映像やセンサーデータを記録するだけでは、体験をコンテンツとして利用することが困難であるということである。

また、体験に関わるデータ(それを文脈情報と呼んでいる)の記録はできるだけ暗黙的に行ったほうがよいだろう。
記憶に残るよい体験というのは、それを行っている最中にそう意識しなかったとしても、後でしみじみと思い出して人に語りたくなるものだろう。
そのような体験は、さあ記録をとるぞ、という感じでやるようなものとは限らないから、体験を振り返る段階になって改めて記録をとっていたことに気がつく、というものにするのがよいと思う。
そこで、体験の文脈情報を暗黙的に記録する仕組みを考えた。
このような仕組みを実装するのに適したものとして、屋内外両用の個人用の情報化された乗り物、つまり以前にもこのブログで紹介した個人用知的移動体AT(写真を参照)がある。

ATのさまざまなセンサーは、単にATが環境に適応するためだけではなく、搭乗者の体験に関わる情報を暗黙的に獲得するためにも利用される。
つまり、ATは環境からの情報を取り込み、体験の文脈情報として保存する。
ATは進行方向の映像以外に、左右や後方の映像も同時に記録する。
また、ATは搭乗者が降りた後でも、ヒューマントレーサと呼ばれる機能で人間を追跡することができるので、後を追いかけて撮影を続行することができる。
さすがにトイレの中まで追いかけて行って撮影するというのはやり過ぎだけれど、屋内外を移動でき、人間を乗せたり追跡したりする乗り物は、体験を記録するのに有効だろう。

ただし、個人の詳細な行動記録に体験としての意味を与えられるのは人間だけなので、体験記録のオーサリングが必要になる。
体験の文脈情報に基づくオーサリングがあって初めて体験はコンテンツとなる。
体験に関わる文脈の記録は、機械が暗黙的に行うものなので、体験者が見たもの聞いたもののみを記録するわけではない。
ゆえに、体験オーサリングの際に、こんなものが近くにあったのか、とか、ああこれはもう一度この場所に行くべきだ、とか、新しい発見をすることだろう。
直接の体験ではないけれど、自分の体験の周辺で起こったことには、他の出来事に比べると、何か自分の感覚のどこかで感じたことのように思えるだろう。
このようなテクノロジーによって、体験に新しい意味を与えることができるだろう。

つまり、体験に関わる記録に付随するすべての情報には、体験に何か新しい意味を加えるポテンシャルがあるということである。

そこで、体験(厳密には、体験の表現)を新しく定義してみようと思う。
情報技術によって拡張された体験は、見たもの聞いたもの行動したことに関わるさまざまな文脈情報に、人間が解釈を加えて整理したもの、とする。
文脈情報には、位置情報やその場所や状況でアクセスされたオンラインの情報なども含むことにする。
有名な記憶補助システムであるForget-me-notのように、時系列に沿って行動のインデックスを自動的に作成していく仕組みによって、記憶の想起と体験コンテンツのオーサリングが支援されるだろう。


また、僕たちは体験コンテンツの応用の一つとして、追体験支援というものを考えている。
これは、体験コンテンツに含まれる文脈情報に基づいて、同様の体験を再現させようというものである。
もちろん、再現といっても、実世界の環境が変化していれば同じ体験にはならないのだけど、主に物理的な移動をトレースして、同様の風景や行動を体験してもらおうということである。

まず、体験コンテンツを共有する仕組みを作り、友人や知り合いの体験を閲覧できるようにする。
次に、気に入った体験を(場合によっては複数)選択する。
そして、これから行うつもりの自己の体験をプランニングして、その結果を自分のATにダウンロードする。
ATは、位置や方向や時間や時期などに関する情報を総合して、プランニングされた体験をトレースするように行動する。
もちろん、人間がその場で臨機応変に行動しようとするのを妨げるものではない。
ただ、搭乗者が部分的な制御をATに任せようとするのならば、ATは体験に最適な場所に移動し、方向を変え、同時に搭乗者に関連情報を提示する。
それは、プランニングに利用した体験コンテンツの要素のうち、現在の行動に最も関係の深いものを映像や地図などで説明をするものである。

原体験者と同じような体験をしようと思ってその場所を訪れたにも関わらず、見るべきものを見ないで帰ってくる、ということがないように、移動や方向の制御を一部、ATに自律的に行わせることで、追体験を支援することができる。
もちろん、このような自律制御は慎重に設計する必要がある。

僕たちは自律的なマシンを作ろうとしているのではなくて、とにかく人間の意図に従うように、ただし人間の注意の及ばない部分に関しては能動的に行動する、いわば半自律マシンを作ろうとしている。
そのためには、パワードスーツのような装着型ロボットでは危険だと思うので、乗り物という形にしている。
これについては、どっちもどっちだという意見があるかも知れないけれど。


さて、このように体験を新しく定義し、体験の共有と利用に関する、さまざまな応用を可能にすることによって、人間の生活はどう変わるだろうか。
当然、ATやそれに類する体験キャプチャ・リプレイマシンがあたりまえに普及している世の中を想定しているのだけど、体験のコンテンツ化は記憶の外在化のさらなる拡張なので、人間そのものの記憶力は弱くなってしまうかも知れない。
しかし、これまでならば人に語られることなく死蔵されていったであろう貴重な体験談がネット上で永続化されていくことで、人類全体の記憶はさらに強化されていくのではないかと思う。

そして、他者の体験を柔軟に検索し閲覧するだけでなく、プランニングに利用することで、先人たちの体験を追体験できるようになるだろう。
もちろん、先に述べたように、さまざまな状況が変化していてまったく同じ体験にはならないだろうが、過去の体験と新しい体験の違いが明確になって、自分の想像力でそれを補って体験を解釈することができるだろう。
このように他者の体験を想像するというのは重要なトレーニングである。

たとえば織田信長や坂本龍馬のような歴史に偉大な足跡を残した人物の体験を真似てみたいと思う人は多いだろう。
もちろん、これは歴史書などを読んで彼らの体験を想像するしかないが、100年後にはさまざまな偉人たちの体験コンテンツ(偉人たち本人の体験というより、彼らに関して詳細な研究を行った歴史家たちの体験)の貴重なライブラリができているかも知れない。
これは、未来のデバイスと情報技術を用いた新しいタイプのコンテンツとなるだろう。

そして、そのコンテンツのユーザーが表層的に体験を真似るだけでなく、その思考の流れをたどってみることができるならば、それによって得られるものは、その人の人生にとって、とても大きな意味を持つことになると思う。

投稿者 nagao : 01:40 | トラックバック

2006年05月21日

自分史とスキル・マイニング

前回のエントリーの件で学んだことは、何歳になっても自分の愚かさというものはなくならないということだ。
こういう失敗は、これまでの人生において何度もやってしまった気がする。
「お前はいつも一言多いのだから、それによって足をすくわれることがあるだろう」というのは、かつて僕の父が僕に言った予言の一つである。
「後悔後をたたず」という現代のことわざ(参考)があるみたいだけど、なかなか学習できない自分に腹が立ってくる。

でも、このブログは主に自分のために書いているのだから、めげずに続けていこうと思う。
いつも一言多い人間がブログを書いたら、いずれはまずいことになるというのは容易に想像できることでしたけどね。
それにしても、ブログは熱くなって書いてはいけませんね。


数年前に自分史(autobiography)というのがちょっとブームになった。
その作成と閲覧のためのWebサイトもあった。
これはブログ以前のパーソナルCMSとしてはなかなか面白いツールだった。

これは自分自身の歴史(1985年大学卒業、とか)をその当時の日本や世界の状況(つくば科学万博開催、日航機墜落、ヘイゼルの悲劇など)と一緒に年表に書いていく、というものだ。
学生の間は、きわめて個人的なこと(n人めの彼女と別れた、みたいな)ばかりだけど、ある程度仕事の経験があり、今は別のことをやっていたりする人は、以前の仕事のことを事細かに書いたりするだろう。
僕は3回転職しているので、結構いろいろ書くことがある(会社の内部のことを細かく書くと怒られるかも知れないが)。

これは過去の自分に関わるイベントを時系列に並べて、その変化や経緯を見て楽しむというものなので、現在進行形の日記を読むのとは異なる面白さがあるだろう。
ついでに未来のことも年表に書いてみようと思う人がいてもおかしくはない。
過去のイベント列から規則性を見い出して未来に外挿するというのもあるし、25歳までに結婚、40歳までに自分が代表となって組織(会社とは限らない)を立ち上げる、なんて具合にただ願望を書く場合もあるだろう。

僕の友人の中嶋さん(彼は僕にブログを書くように勧めた人物の一人である)が彼の仲間たちとやっているiTimeというものも過去から未来へ自分たちの歴史を並べた年表である。
過去についてはよいとして、未来については単なる予測ごっこに過ぎないのだが、決意表明みたいなものも見え隠れしていて面白い。

不思議なもので、自分史を書いてみると、なんとなく自分のことを客観的に眺められる気がする。
彼の人生、浮き沈みが激しいな、なんて完全に他人事のように見ていられる。
彼は、ことごとく職場の上司に恵まれなかったようだな、なんて思わず同情心まで芽生えてしまう。
かと思うと、仕事や恋愛で失敗したときのことを詳しく書いていると、とたんに客観的に見れなくなって、まるで今がそのときのように思えて、何とも言えない悔しさと情けなさが、まざまざと甦ってくる。

自分史とは自分と向き合うものだから、履歴書と違って、ことさらに長所を絞り出して飾り立てようという気にはなかなかならないだろう。
つまり、できるだけ詳細に文脈を説明し、可能な限り客観的に自分の歴史を記述しようとするだろう。

そこにコンテンツとしての新たな価値が生まれてくる。
ただ自分で読んで楽しむだけでなく、共有することで、他者の特性や適性を考える重要な資料になる。
今は、ある仕事に本当に適任の人を探すのが困難であるし、大きな会社でつまらない仕事を何年も続けるより、本当に自分に向いている仕事で、雇用者に必要とされていると実感できるところで働いた方がよいのは間違いがないと思うので、仕事のマッチメイキングに関するうまい仕組みが必要であろう。
そこで、自分史をベースにして、自分のプライバシーをある程度、意図的に開示することによって、自分の人生にとって重大なフィードバックを得る機会を作る、というやり方が考えられる。

そして、自分史からその人の特性や技能、つまりスキルに関する記述が自動生成されるような仕組みが考えられるだろう。
それをスキル・マイニングと呼ぶ。
スキル・マイニングは、自分史のデータ構造とスキーマを定義して、ある程度自由度を制限して書くようにすれば、比較的容易に実現できると思う。
僕がワードローグでやっているような手法も取り入れて、フリーテキストに言語的アノテーションを付与するようにすれば、さらに解析の精度を上げられるだろう。
もし自分史の一部を(ある程度のリスクを覚悟の上で)一般公開することができれば、ソーシャルタギングやオンラインアノテーションなどの手法を用いて、自分史の中から自分以外の人にとっても価値のある情報を見つけることが可能になるかも知れない。

別にブログやSNSでいいじゃないかと思われるかも知れないが、自分史を書いて(部分的に)公開するための、より適切なツールや仕組みが必要だと思うのである。

スキル・マイニングとそれに基づくマッチメイキングは、プライバシー保護を前提としたソーシャル・サービスとして実用化されるのではないだろうか。
ただし、完全に機械任せにするのではなく、人間が適切に介入できるようにする必要があるだろう。
また、介入する人間が誰であるかは、サービスの利用者には知らせるべきであろう。

プライバシー情報を悪用されるのではないかという危険性が常につきまとうけれど、スキル・マイニングやマッチメイキングのために公開すべきデータを、ただ暗号化するだけでなく、一旦バラバラにして、ある視点で統合しなければ誰のデータかわからないようにすることによって、悪用を防ぐことはある程度可能だと思う。

例の「ウェブ進化論」(梅田望夫著 ちくま新書 2006)に、今回のエントリーの内容にも関係がある、以下のような部分があった。

ソーシャル・ネットワーキングが「巨大な人間関係マップ」を構築しているのだとすると、そこに何を入力して何を出力させる仕組みを構築すればいいのか。
そう考えて入力と出力を発想してみれば、「何かを知りたいと思ったら誰に聞けばいいか」「何かをやりたいと思ったら誰を雇えばいいか」「誰かに会いたいと思ったら誰に仲介を頼めばいいか」……。
巨大マップの存在を前提とすると、入力は目的で出力は「人のランキング」になるのが自然だ。
むろん相手が情報ではなく生身の人間なので順位付けすることへの抵抗感はあるし、検索エンジンより技術的に難しいから、こうした仕組みが実現されるかどうかはわからない。
しかしソーシャル・ネットワーキングは、「人々をテーマごと、局面ごとに評価する」という「人間検索エンジン」とも言うべき仕組みへと発展する可能性を内在しているのである。

これはもっともな意見だと思う。
ただ、SNSは人間の間の社会的関係(学生時代の友人とか職場仲間とか)に基づいてネットワークを形成するものなので、ある人にコンタクトをとるのに適切な仲介者はいるか、という質問に答えるのは比較的容易だと思うが、ある仕事に適したスキルを持っている人は誰か、という問いに、ある程度の客観性をもって答えるのは簡単ではないだろう。
もちろん、ある人が、現在どんな仕事に従事しているか、そして、その人は関連業者とどのくらい交友関係を持っているか、などの情報に基づいて、「現在の」その人の興味や技能を推し測ることはある程度可能だろう。
しかし、ある職場をリタイヤした人が、どんな「昔とった杵柄(きねづか)」を持っているか、そしてそれによって、その人を他者とどう差別化できるか、ということを知る手段を考えるのも重要だと思う。

やはり、スキル・マイニングを実現するには、現在のSNS以上の工夫が必要である。
そのためにも、自分史は有効なコンテンツになり得るだろう。

そして、ある人が真摯に綴った自分史は、きっとその人が精一杯生きた証となるだろう。
もし、自分が死んだ後でも誰かに自分のことを覚えていて欲しい、と思っているならば、自分史を書いてみるとよい。
よかったこともよくなかったことも、成功したことも失敗したことも、みんな書いてみよう。
一見、順風満帆に見える人の人生だって、おそらくさまざまな失敗があっただろうし、そういう失敗に第三者が学ぶことはとても多いと思う。
自分を覚えていて欲しいという強い思いで書かれた自分史は、きっとかなり長い間読まれていくことになるだろう。


ところで、「ウェブ進化論」でも紹介されている、社会心理学者Stanley MilgramのSmall World Phenomenonに端を発する、いわゆるsix degrees of separation(6次の隔たり)、つまり「地球上の任意の二人を選んだとき、その二人は、六人以内の人間関係(知己)で必ず結ばれている」という話は、SNSの文脈でよく引用されるようになったと思われるが、実はあまり根拠がないらしい。
Milgramの1967年の実験からはとてもそんな結論は導けないし、他の研究者によって妥当性が確認されたという話もないそうだ。
つい信じたくなる気持ちもわかるけれど、世界中の人々の間のつながりというものをそんなに単純に考えるべきではないだろう。

それにしても、僕がしっかり自分史を書いていれば、どんな状況でどんな失敗をしやすいか、自分の過去の事例に基づいて予測することができたはずなのに、と思うと、ちょっと残念である。
前回のエントリーへの反応に厳しいものが多かったのは僕が余計なことを書いてしまったせいだと思うけれど、そのこと自体が自分史に書けそうなネタになったことは間違いがない。

投稿者 nagao : 11:09 | コメント (4) | トラックバック

2006年05月15日

Webの間違った進化

前回のエントリーにも書いたが、「ウェブ進化論」(梅田望夫著 ちくま新書 2006)という本を読んだ。
そして、世の中をダメにするものの正体が少しわかったような気がした。

僕は基本的に、話題になっているからとかベストセラーだからという理由で本を手に取ることはない。
たとえば、ちょっと古いけど、「バカの壁」なんていうふざけた本は天地がひっくり返っても手に取ることはないだろう。
こんな本を書いているあんたの方がバカだよ、と思ってしまう(基本的に僕は脳科学者と呼ばれる連中はたいてい詐欺師だと思っている)。

「ウェブ進化論」に対しても初めからよい印象を持っていなかった。
著者が「ネットはコストゼロ空間だ」とかテレビで言っていたのに対しても「そんなわけないだろ」と突っ込みを入れていた。
どんな情報だって物質がなければ存在できないのだから、物質を維持していくためのコストがかかるにきまっているじゃないか。

しかし、もしこの本が情報化社会の未来を独自の視点で適切に予測しているのならば、参考にするべきだと思ったので読んでみることにした。
そして、この本は(この内容を鵜呑みにする)人間をダメにする本だと思った。

人間がダメになる最大の要因は、自分にとって重要な意思決定を他者に委ねてしまうことだと思う。

この本の著者が言うところの「ネット世界の三大法則」とやらは、

1.神の視点からの世界理解
2.ネット上に作った人間の分身がカネを稼いでくれる新しい経済圏
3.消えて失われていったはずの価値の集積

だそうである。
無論、問題なのは1である。
この著者によると、「検索エンジンの提供者は世界を俯瞰した視点で理解できる手段を持っている」ということらしい。
これはもちろん間違いである。
Web上のすべての情報のインデックスを作ったとしても世界を理解することはできない。
検索エンジンが自動的に作成したインデックスは、コンテンツの内容を理解した結果として得られるものではないからである。
何らかの統計的な結果が得られることは間違いがないが、それは世界を理解する手段にはならない。

検索エンジンは神の視点なんかではないし、そう思い込むことはとても危険である。
つい、自分の意思決定をそれに委ねたくなってしまうからだ。

コンテンツの意味を理解して何らかの推論を行うことができるのは人間だけである。
だからこそ、人間による解釈が重要なのである。
テクノロジーを重視するあまり、人間を軽視するのは非常にまずいことである。

(グーグル・ニュースに関して)グーグルのエンジニアリング担当副社長ウェイン・ロージングは、編集に人を介在させないことについて聞かれて、「人間なんか使うわけないだろう。グーグル・ニュースはエンジニアリング・ソリューションなんだから」と繰り返し述べていた。

というくだりがあった。
「人間なんか」という部分のもともとの表現がどんなものだったのかわからないが、こういうことを平然と言う奴に対して、僕は憤りを感じる。
こんな奴は、機械が編集したニュースでも読みながら、機械が作曲した音楽でも聞いていろ、と言いたい。

Webが、あるいは検索エンジンが世界を知っているなどと錯覚するのは人類の歴史にとって害にしかならないだろう。
あたりまえのことだけど、情報それ自身には意識などないし(擬人化するのは勝手だけど)、情報自身が自然淘汰を起こすことなどあり得ない。
イノベーションを起こすのは常に人間である。
解釈や決定を行うのも常に人間である。

人間をシステムの中にうまく取り込むという点においてWebはうまくいっていると思うけれど、テクノロジーが進んでもWebそのものはたいして進化しないだろう。
それよりも、Webコンテンツに対する人間の解釈を集積させて、Webコンテンツと人間の活動を含めて知識とするのがよいだろう(ただし、常に不完全な知識だけど)。
テクノロジーを無視することは最早できないけれど、人間の地道な活動を無視することもやはりできないのである。

この本が僕に教えてくれたことがある。
Webがではなく、人類が進化するために、いつかは倒さなければならない敵がいるということだ。
それは、テクノロジーを、使っているときはよくても、じわじわと人間をダメにしていく麻薬のようなものにしてしまう連中である。
それが、Googleであり、Google亡き後にも山のように現れるであろうテクノロジー偏重の企業である。


GoogleがGmailで個人のメールに広告を入れるという話の中で、Google社員のコメントと思われる以下の台詞が紹介されている。

「迷惑メールの除去やウィルスの駆除のために、電子メールの内容をその判断材料に使うのは現在の常識です。
これまでそれを誰も問題にしなかったでしょう。
電子メールへの広告挿入にも同じような技術を使います。
作業は全部コンピュータが自動的にやるんです。
そのプロセスに人間は関与させません。
悪いことをするのは人間でコンピュータではありません。
人間はこのプロセスから遠ざけます。
そのルールはがっちり守ります。
だからプライバシー侵害の危険はないのです」

おいおい、そんな説明で納得するなよ。
そのプログラムを書いている人間が悪意を持っていたらどうするんだ。
コンピュータは勝手に動いているんじゃない、人間が動かしているんだ。
そんなあたりまえのことに気がつかないほど、この著者は馬鹿なのか。
Gmailなんて、プライバシー意識のあまりない馬鹿な学生か、自分の会社に魂を奪われたGoogle社員が使っているんだと思っている(当然、僕はそんなもの使う気がしない)。

こんなことを言っている連中が、「世界政府っていうものが仮にあるとして、そこで開発しなければならないはずのシステムは全部グーグルで作ろう。それがグーグル開発陣に与えられているミッションなんだよね」なんてことを考えているなんて怖すぎるじゃないか。
こんな連中が理想とする「世界政府」とやらができる前にきっと今の世界は滅んでいるだろう。

どうしてこれほどまでに傲慢な考え方ができるのだろう。

売れている(しかも自分の専門に近い)本に対して、敵愾心を持って批判していると思われるのは癪だけれど、やはり間違った方向に技術が進んでいくことにはできる限り抵抗していきたい。

しかし、お前にこの本を越えるくらい売れる本を書けるかと誰かに問われれば、僕は、まず間違いなく無理だと答えざるを得ない。
僕は自分の影響力の程度をわかっているつもりだし、自分の書いた本を買って読んでくれる人がどういう人かも、だいたい想像がつく。
負け惜しみに聞こえるかも知れないけれど、僕はそれでもよいと思っている。

というか、まず自分の本を完成させなければ。
連休中に執筆作業を進めようと思ったのだけど、プライベートなことでとっても忙しかったので本の完成が遅れているのです。
関係者の方々、本当に申し訳ありません。

ところで、先の本でも紹介されている「オープンコースウェア」というものがあるが、これは僕に言わせるとまったくナンセンスである。
講義内容のビデオや資料などの教材をネット上で利用可能にするという話そのものがナンセンスなのではない。
そういう活動を個人の自発的参加によってではなく、まず組織ありきでトップダウンにやっていこうという姿勢が今の時代にそぐわないと思うのである。

そんなことは教員が自分のやり方とペースで自発的に行えばいいのであり、プレッシャーをかけて組織的にやるようなことではない。
Wikipediaのような、集団に依存したコンテンツと違って、教育用のコンテンツは教育者が独自性を出せるように工夫して個人的に制作していけばよいと思う。
というわけで、僕の今書いている本も、自分では教育用コンテンツのつもりなのである。

さらに、僕のいる研究室のゼミを撮影したビデオ(教員が激怒しているさまや、罵詈雑言とも取られそうな発言の応酬が日常的に見られる風景)をメタデータ付きで一般公開する予定である(あまりにも危険な発言には「ピー」を入れて欲しいと言ってありますが。。。)。

こんなことは、多くの人を巻き込んで組織的にやろうと思ったって、そうそうできるものではない。
Web 2.0のキーワードの中にparticipation(参加)というのがあるが、これはユーザーつまり使用者ではなく、一人一人がコンテンツに積極的に関われるような参加者になろう、ということである。
ならば、つまらない組織などにこだわることなく、またネットを利用しているつもりでネットに利用されているというのでもなく、あくまで参加者として自分の判断と責任を持ってネットに関わっていくのがよいと思うのである。

まあ、今回はちょっとありがちな結論でしたね。

投稿者 nagao : 22:23 | コメント (28) | トラックバック

2006年01月29日

Google、名大に来る

Wordlogue Data
今週の金曜日に名古屋大学で以下の講演会を行います。
僕は前座なので僕の話はあまり重要ではありませんが、その次のグーグルの高林さんの講演は聞く価値が大いにあると思います。
彼はすごくセンスのいい技術者で、テキスト検索Namazuやソースコード検索Gonzuiなど、僕には絶対に思いつかない名前のシステムを続々と作り出し、その筋のには一目置かれている人物です。
彼は、僕が以前に所属していたソニーコンピュータサイエンス研究所というところの研究員をしていたこともあります。
この研究所は少なくとも僕が入社した頃はとても活気があって、わくわくする場所でした。
研究所の一般公開では「ついさっきプロトタイプができました。実はまだデバッグ中です」なんていうシステムをデモしたりしていました。
僕なんか、直前に何日も徹夜してぎりぎりでに見せられる状態にした、なんてことがよくありました。
研究員のみんなが「一所懸命面白いデモをやって訪問者を喜ばせたい」という気持ちで一杯で、機密情報もへったくれもない、という雰囲気でした。
かなり辛かったけど、すごくいい思い出です。
今はどうなっているのか知らないけれど、ソニーって会社自体が今やIT業界ではかなりビハインドな気がするので、その研究所も推して知るべしという感じがします。
それに比べるとアップルって本当にすごい会社だな、と思います。

いやいや、ここで話題にすべきは何と言ってもグーグルです。
以前のエントリーにも書きましたが、グーグルにはとてつもない脅威を感じます。
少なくともWebに関する研究をしているグーグルを無視することはできないでしょう。
これは、人工知能研究者がセマンティックWebのコンセプトにショックを受けるのとは桁が違います。
セマンティックWebのコンセプトはまだすごくいいかげんで、具体性が乏しいからです。

以前に高林さんに言われた「Webに関する研究ってありえないですよ。だって、Webって考えたことがすぐに現実的なものになる世界だから、研究だとか言ってもったいつけないですぐ実験してみればいいんです。その結果、いいものは広まるし、そうでないものは黙殺される。役に立つかどうかよくわからない研究なんかで論文を書いているより、はるかに意義があります」という意味の言葉が未だに僕の胸に突き刺さっています。
確かに彼の言う通りで、僕は現在の状況のうち、特にメタデータや閲覧者によるコンテンツへのタグ付けとその応用に関して、かなり以前から予測してそのための技術を考えてきたのですが、実際に世の中に受け入れられているのは、del.icio.usのようなソーシャルブックマークや、Flickrのような単純なタグ付けの仕組みでした。
僕が考えたものよりはるかに単純なものが十分に機能しているわけです。

だったら、むずかしいことを考えてもったいをつけた研究をやるより、単純でも今できることを早めに世の中に出していく、というアプローチの方が、コンセプトを世の中に広めるという点ではよいような気がしてきます。
グーグルは、すでに高いポテンシャルを持っているにも関わらず、もったいをつけずに、アイディアをどんどん世の中に出していって、誰かにまねされようが一向に構わない(ように見える)、というスタイルをとっているところが、実に驚異的です。

グーグルと張り合ったって勝てそうにないから、Webに関する研究はあきらめよう、と思うが出てきてもおかしくない雰囲気です。
ですが、盛者必衰の理(ことわり)という言葉もありますし、アイディア時間をかけて熟成させればよりよいものになる、という話もありますから、Webの技術革新の速さに振り回されないで、落ち着いて、いい研究をやりましょう。

というわけで、このエントリーを書いたのは、以下の講演会に是非ご参加ください、ということが言いたかったためです(どこが、「というわけ」なのかは気にしないでください)。

Webテクノロジーに関する講演会

日時:200623日()16:00-17:30
場所:名古屋大学IB電子情報館大講義室
参加費無料 事前登録不要
対象者:名古屋大学の情報系の学生

プログラム

16:00-16:30Web2.0Webテクノロジー未来 長尾 確(名古屋大学)

Web2.0という最近の重要キーワードについて解説し、Webテクノロジー未来をいくつかの事例を交えて概観します。

16:30-17:30大規模データ処理を可能にするGoogle技術 高林 哲(グーグル

今日の検索エンジンはコンピュータサイエンスの様々な分野の技術の集大成として構築されています。
膨大な文書を対象として高速かつ高品質な検索を提供するためには、コンピュータアーキテクチャや分散システムなどの低いレイヤのシステムから、情報検索、機械学習、データマイニング、ユーザインタフェースといった応用分野におよぶ、幅広い領域の技術が求められます。
本講演ではWebの規模に対応するために私たちが構築してきたスケーラブルなシステムについて紹介します。
まず、データセンター設計上の課題と私たちの取り組みについて説明し、続いて、並列データ解析のためのプログラミングモデルとプログラミング言語について述べます。
最後に大量のデータを活用したアプリケーション紹介を行います。

講演者略歴:

長尾 確(ながお かたし)
日本アイ・ビー・エム東京基礎研究所、ソニーコンピュータサイエンス研究所を経て、現在、名古屋大学情報メディア教育センター教授。

高林 哲(たかばやし さとる)
2004年に奈良先端科学技術大学院大学情報科学研究科博士後期課程を修了。
現在、グーグル株式会社ソフトウェアエンジニア。
IPA未踏ソフトウェア創造事業においてスーパークリエータとして認定される。
テキスト検索システムNamazu作者としても有名。

投稿者 nagao : 19:36 | コメント (710) | トラックバック

2006年01月27日

教育者のプライド

Wordlogue Data
人間というのは不思議なもので、「自分はちゃんとしている、大丈夫だ」と思っていても、他人からのたった一言でがぐらついてしまうことがあるようだ。
僕にもそんな経験がある。
以前に、学生からメールで、「どうしてあなたはそんなに高圧的なんですか」という意味のことを言われた。
いろいろとややこしい文脈があるのだが、要するに、僕の「○○しろ」という言い方が気に入らないらしい。
これは命令調ではあるが「高圧的」と言われるほど強い口調で言ったのではない(まあ、その学生がそう感じたなら仕方がないが、こちらにはそのつもりがないのだから言いがかりとしか思えない)。
確かに、時間が足りなくて背景や理由を十分に説明できてないときもあるが、命令調で指示を出すのは普段からしていることで、別に何の問題も感じていなかった。
だから、「高圧的」だと言われたのは少なからずショックだった。
この学生は、「親父にもぶたれたことないのに」(by アムロ・レイ)的なナイーブな輩だろうか。
だとしたら、僕も「殴られもせずに一人前になったものがどこにいるのか」(by ブライト・ノア)みたいな指導的態度を取らないといけないのだろうか(ちなみに、僕はその学生を殴ったわけではありません)。
僕は以前のエントリーで「学生と僕との違いは、経験の違いに過ぎない(ゆえに、いくつかの経験を経てその差は縮まっていく)」と書いたのだが、それは人間としての内容の違いのことを言っているのであり、それとは別の次元にの間の社会的な関係が存在する。
大学生にもなって「自分自分の指導教員の立場の差」を理解できないのだろうか(その「立場の差」を利用して、自分に不当に抑圧をかけている、と思われたのならさらにまずいが)。
いや、この学生がそんなに頭の悪い奴とは思えない。
少なくとも僕が学生のときにはあった「(相手によって)言っていいことと悪いことの区別」が今はなくなってしまったのではないだろうか。
僕は(少なくとも今は)感情にまかせて口から飛び出しそうになる多くの言葉を飲み込む努力をしている。
だから、僕の言っていることは、怒りの度合いとしては10分の1くらいに薄められた言葉である(たぶん)。
僕が遠い昔、激昂にかられて母親に言った「おまえなんかにの気持ちがわかるか」という(ありがちな)言葉をふと思い出した。
自分の息子に「おまえ」と言われた母親の気持ちをその当時は考えもしなかった。
明らかに、親子という社会的関係を踏み外した言葉だ、と今は思う。
僕は、教育者というのはどんな逆境におかれても、教師としてのプライドを維持していなければいけないものだと思っている。
プライドのない教師に教育される子供たちはとても不幸だと思う。
明らかな不正によって断罪され、記者会見等で謝罪をする教育者や経営者がいるけれど、こんな連中に指導された学生や部下はさぞ情けない思いをしているだろう。
「社員は悪くはありませんから」と言って泣いている、1997年に経営破綻によって廃業した山一證券の社長テレビで見て、そんなことを言ってかばってもらうありがたさより、そんな姿をテレビでさらしている社長を見る情けなさの方が、社員にとってはるかに大きいのではないか、と思ったものである。
僕は会社では上司に恵まれなかったから、上の人間の不当な抑圧や無能さに涙が出るほどくやしい思いをしたことが何度もある。
しかし、それでも彼らに逆らったことはないし、口答えをしたこともない(たぶん)。
ただ自分の無力さを痛感し、それを補うために努力をしようと思ったものである。
今では、よい経験をさせてもらったと思っている。
やはり、「殴られたことのない人間が一人前になることはない」のである(今の僕が一人前かという議論はなしね)。
僕は、まともな教育とか指導というものは、馴れ合いの状態では絶対にできないと思っている。
だから、僕は学生とは一定の距離を置いているし、コミュニケーションにおいてある種の抑圧が発生するのは当然のことだと思っている。
抑圧というのは気持ちの良いものではないから、与えられた方がストレスを感じるのはよくわかる。
だけど、アカハラだパワハラだとかいう言葉に踊らされて、学生や部下に妙に迎合した態度を取るのはかなりまずいと思う。
明らかに不当なものでない限り、そういうプレッシャーに耐えることで学ぶことは必ずあるだろう。
それらにいちいち腹を立て、「なんであんたはそんなに高圧的なんだ」と言ってみたところで損をするのは自分である。
僕は学生たちに「君たちがこれから直面する社会は不条理さに満ち満ちている。だからそんな不条理さの中でも自分を見失わず、無数の抑圧に耐えていけるだけの精神力を身に付けて欲しい」と言いたいのだけど、さすがにそんな恥ずかしい台詞は口にできそうにない(と言いながら、ここに書いているのもあれだけど)。
たぶん、まだまだこれからも気持ちがぐらつくようなことを言われたりされたりするのだろう。
でも、断固として迎合せず、学生に適度の抑圧を与え続けるのも教育者の仕事なのである。

投稿者 nagao : 00:26 | コメント (396) | トラックバック

2005年12月30日

センター・オブ・エクセレンス(後編)

12月に入って面倒なことばかりあって、このブログの更新がかなり遅れてしまいました。
毎週更新するという当初の計画も狂いまくりです。
来年こそは、週に1回書くというセルフルールを遵守したいと思ってますが、どうなることやら。。。

それにしても最近リアクションがなくて寂しいので、細かいツッコミでも何でもいいので何か欲しいです。


文部科学省が選定する21世紀COEプログラムは、現在、国内91大学の273箇所で実施されているそうである。
多過ぎると思うかも知れないが、そうではない。
せめてこれくらいはないと日本の将来がやばいからである。
もちろん、これらは一部を除いて本来の意味でのCOEではない。
世界に誇る最精鋭の研究教育機関が日本に273もあるはずがない。
しかし、そんなことは十分に承知した上で、日本にはまともな教育機関としてのCOEができるだけ多く必要なのである。

前回のエントリーで日本の大学はエリート教育に向いていないと書いた。
それは一部の優秀な学生に教育のリソースを集中できないからである。
できる学生が自力で伸びていくのは問題がないし、そのための環境が日本の大学にないと言っているのではない。
しかし、できる学生もそうでない学生も平等に教育を受けるようなシステムになっているのである。

COEというのはそういうものではないと言うのであれば、ほとんどの日本の大学はCOEにはなり得ないだろう。
しかし、日本式のCOEというのはあってもよいのである。

それは、ノーベル賞受賞者を何人も輩出するという組織ではない。
ある分野において、将来日本国家が必要とする技術をあらかじめ予測して作ったり、そのための人材を育てたりする組織である。

ところで、ノーベル賞の受賞者数をその国の国際競争力だと思っている人は意外に多いような気がする。
たとえば、国の策定した「第二期科学技術基本計画」(2001~)には欧州主要国並みの「50年で30人」という数値目標が示されている。

しかし、ノーベル賞の受賞者の数が少なくとも科学技術領域におけるその出身国の国際競争力を表していると考えるのは、あまりに単純すぎる。
だいたい、物理や化学や医学よりも一般に抽象度が高い能力に関わる数学や情報科学に関するノーベル賞は存在しない。
経済学や生命科学において情報科学にも関わっている人が受賞する可能性はあるが、情報科学分野でどんなに優れた業績があったとしてもそれによって評価され受賞につながるということはおそらくないだろう。

それにしても、マスメディアが必要以上に煽り立てるから、ノーベル賞とその他の学術的賞(たとえば、フィールズ賞とかチューリング賞とか)の知名度の差は歴然としている。
一種の国威発揚として、大衆に訴えかけるのは、あとはオリンピックのメダルくらいだろうか。
文化的賞(アカデミー賞とかピューリッツァ賞とか)も一応インパクトがあるけれど、一体どういう人たちがどういう基準で選んでいるのか気にならないのだろうか。

いずれにせよ、国際的賞の受賞者の数で国力を測るのは、あまり有益なこととは思えない。
それよりも、ちゃんと未来のことを考えて国家としての戦略を練るべきだろう。
その戦略とは、これからこの国が何に投資して、その成果をどのように利用し、発展させるかということである。
その成果の副産物として、国際的賞の受賞者が増えるのならそれでよいし、そうならなかったとしても、そんなことで評価を下げる必要などまったくないのである。
ES細胞(胚性幹細胞)を巡る韓国の最近の騒動を反面教師とするべきであろう(この件で、アメリカの科学雑誌「Science」の権威は失墜しただろう。イギリスの「Nature」も似たようなものらしいけど)。

これを読んでいる皆さんは、政府が2005年4月に発表した「日本21世紀ビジョン」というのをご存知だろうか。

これは竹中平蔵大臣が中心になり、日本を代表する60人の有識者が集まって議論し、8ヶ月かけて作成したものだそうである。

その中で言われている日本の25年後の未来は、以下の3点に集約される。

1.開かれた文化創造国家
日本が持つ文化や技術を世界に発信し、より魅力的で存在感のある国をつくる。
そのために、教育の質を高め、外国とより活発に交流し、物、情報の自由な流れがあふれるようにする。

2.「時持ち」が楽しむ「健康寿命80歳」
「時持ち」というのは、「金持ち」からつくられた言葉。
要するに、今後は「お金より時間」の豊かさを追求する。
そして、国民が80歳まで健康な生活を楽しめる格差のない自由で持続可能な社会をつくる。

3.豊かな公・小さな官
今後は小さな政府を目指し、官は縮小させる。
そして、公共分野で民間活力を引き出し、暮らしの安心を支える社会保障制度を充実させ、豊かな公共社会をつくる。

最近読んだ本「這い上がれない未来」(藤井厳喜著、光文社ペーパーバックス、2005)によると、これらはすべてデタラメ、つまり、実現不可能だそうである。
このビジョンに決定的に欠けているのは、国家財政の破綻を未然に防ぐため、そして、グローバリゼーションの流れの中で日本が孤立せず、同時に国家の安全を保障するための、国としての中長期的な戦略だそうである。

確かに僕のような政治には直接関係のない人間でも、今の日本の政府に明確な戦略があるとはとても思えないし、まして、その実現のために努力しているという感じがまったくしない。

上記の本によると、「国家破産を目前にして、この日本国には、もはや国民のことを真剣に考えている政治家や官僚はほぼいないと言ってよいだろう。そればかりか、大手メディアに登場するジャーナリスト、学者、評論家たちまでがそうだから、われわれはいま、本当に救いがたい状況にいる。」そうである。

こんなことも書いてあった。
「諸君は、小泉首相が「私の任期中に増税はやらない」「首相任期の延長はない」と言っている真意を、真剣に考えたことがあるだろうか?これは、「私は改革するふりをして政権を維持してきました。でも、何もできませんでした。だから、私は、逃げます。そうしないと、やがて来る財政破綻の責任を取らされるので、とりあえず2006年9月までが限度なのです」ということなのである。」


僕は国立大学の教員になるまで国益のことを考えたことはなかった。
漠然と日本の未来のことを心配したことはあったが、民間企業にいたためか、国のために何かをしたいなどと考えたことはなかった。

今の政府や官僚って本当に日本の未来のことを真剣に考えてはいないのだろうか。
竹中っていう人を僕はよく知らないけれど、この人は仮にも教育者(国立大学じゃないけど)だったのだから、自分の専門の学問領域だけでなく、教育を通して、日本の未来のことを深く考えてもよさそうなものではないのか。
ならば、こんないいかげんなビジョンを掲げていないで、さらに、問題をいちいち先送りにしないで、具体的な改革(郵政民営化もいいけど、やるんなら官僚のつけをちゃらにするな)をやったらどうなのだろう。

文部科学省の21世紀COEプログラムは、国立大学法人化と並んで財政破綻に対する小手先の対策の一つだと思われるが、あまたある研究教育機関のどこに集中的に投資するか(形だけでも)真面目に考える、という点では極めてまっとうなものである。
ただ、評価基準が、(インパクトファクターなどを考慮した)論文の数などの旧態依然のものであることがいただけないが。

そもそもCOEの運営者に求められるのは、現在の実績というより未来を予測する能力である。
もちろん未来の予測を特定の組織のメンバーのみに委ねるのは危険過ぎるから、複数の組織に分散して任せるしかない。
国家の戦略に関わることならば、外国の組織に任せるわけにはいかないだろう。
つまり、任すべきは国内のCOE、つまり大学である。

国が、国内の人材育成に投資するのは当然のことだろう。
まして、それがCOEならばなおさらである。

COEの評価は当然やるべきであるが、その基準は、未来を適切に予測しているか、そしてそのための準備をちゃんとしているか、という点に集約させるべきである。

エリート教育など特に必要ではない。
ある分野で他の人にはない、あるいは習得するコストが比較的高いスキルを持った人を必要なだけ育てられれば十分である。

僕は情報技術に関するCOEの一つに関わっている(正確には、名古屋大学の情報系COEの事業推進担当者の一人である)。

そのCOEでは何を予測したかというと、画像・音声・テキストなどのメディア技術が国家の情報インフラに不可欠になるということである。
これは、画像や音声のセンシングとデジタルコンテンツが意味的な関連を持ち、ネットワークで共有されることによって、情報インフラが目と耳と推論能力を持つことになり、社会システムの情報化を飛躍的に促進する原動力になるという話である。

そんなことは当然のことで、別に驚くことはないという人がいるかも知れないが、そういう未来を思い描くだけでなく、そのための技術を開発し、想定される問題点を考察し、人材を育成している機関が日本にどれだけあるというのだろうか。

メディア技術だけなら他の組織でも開発しているし、ある部分に関してはわれわれより進んでいるだろう。
しかし、特定のメディア処理技術にこだわっている組織ほど、視野が狭く、社会インフラの必須要素として位置づける、という、より大きな視野で技術を考察することが少ない。
そういう文脈では一般に論文が書けないからである。

では、われわれが社会学的な観点で技術を眺めているかというと答えはノーである。
しかし、技術を生み出している人間だからこそ、その未来や社会的影響を他の人よりも正確に理解できる場合がある。

たとえば、携帯電話にカメラを内蔵させることで、不必要に肖像権やプライバシーを侵害したり、一般の人があまり見たくもないものを不特定多数の人に見せようとする人が増えることは容易に予測できただろう。
それが予測できた場合に、さらにどういう技術を発明しておくべきかは、技術と社会インフラの関係を考えながら研究している人間にはきっとわかるはずである。
その場合に社会学的な知見は不可欠ではない。

企業はビジネスになりそうなことはがんばるかも知れないが、メディア技術が情報インフラの根幹を成すというのはまだまだ先の話であって、すぐにビジネスになるというものではない。
そういう先のものに全力を投入できる機関は学術的なものに限定されるだろう。

国が目指すべき方向性をまじめに考え、心配し、努力しようとするのは、ビジネスの世界にはあまり期待できないと思う。
だからこそ、アカデミアの存在意義があるのであり、その運営にお金がある程度以上かかるのであれば、国は(つまり国民は)投資すべきであり、投資するのならば、その見返りを求めるべきである。

その見返りとは、政府の21世紀ビジョンのような、根拠のないバラ色の未来予想図なんかでは断じてない。
社会が賢く、健全でいられるための社会インフラ技術、および人材である。

実際のところ、IT関連技術の実用化によって、多くの人はより賢くなったと思う。
近年の特筆すべきことの一つに、マスメディアや政府が隠蔽していたような情報に一般の人がアクセスできるようになったことがあると思う(ただし、情報の信憑性を自分で判断しなければならなくなったリスクもあるけれど、すべての情報を疑ってかかることは悪いことではないだろう)。

多くの人を(自己の努力次第で)より賢くしてくれるような技術を生み出し、国の未来のことを考えて行動してくれる人材を育成する、そういうことで国民にお返しをしてくれるところに投資するべきなのである。

投資した結果がどうなったか、しっかり見届けていただきたい。
ただし、基盤技術の開発はともかく、人材育成にはそれなりに時間がかかるのでご理解いただきたい(これは政府のような問題の先送りや逃げ切りではないので、お間違いのないように)。

投稿者 nagao : 09:24 | コメント (291) | トラックバック

2005年11月27日

センター・オブ・エクセレンス(前編)

大学教員になって4年が経過した。
しかし未だに、大学で感じる居心地の悪さが消えない。
それは教育という仕事の途方もない迂遠さによるものだろう。
自分が何かを成し得たという実感がないまま時間ばかり流れていく。

無論、僕は教育者になるために大学に来たのである。
僕は研究(というか、新しいものを作ること)が好きでしょうがないので、40歳を過ぎても研究者を続けたかった。
それが可能なのは大学だけだと思ったから、企業の研究所から大学に移ることを決心した。
まだ会社でやりたいこともあったし、もう少しだけやりたいようにやれそうな状況だった(かなり制約は受けていたが)にも関わらず、そのときの自分のポジションに留まるのをあきらめて大学に移った。
「もう少しだけ(着任を)待って欲しい」と大学側にお願いしたのだけど、待ってくれそうになかったので仕方なく、仕事の途中にも関わらず退職した(今考えると、そんなに急がされなくてもよかったのではないかと思うが)。

そんな僕でも、大学に来るということは、単なる研究者ではなく教育者になることだという自覚があった。
研究よりも教育の方がずっと重要だということは何となくわかっていた。
だから、研究室を立ち上げるときに、学生がどうしたら社会で必要な技術や知識や経験を身に付けて卒業できるかについて考え抜いた。

僕の指導方針ははっきりしている。
それは、学生を鍛えることに関して妥協をしない、ということである。
「仏の○○」みたいな存在にだけは絶対になるまい、と思っていた。
僕が適切だと考える基準を満たしていない学生は、絶対に卒業させないし、学位を与えない。
それだけは初めから決めていた。

そう思って学生と接してきたけれど、やはり現実は厳しいものだった。
僕の指導方針を受け入れられず出て行くもの(指導教員を変更したり、休学・退学したりするもの)が何人かいた。
それに、基本的に僕は学生の受けがあまりよくない気がする(まあ、厳しい教師が敬遠されるのは当然といえば当然だけど)。
予想はしていたけれど、教育に伴う精神的な苦しみはかなりのものである。


日本の大学はエリート教育にはまったく適していないと思う。
大学院ですら、そのプライドを維持できず、入学基準をどんどん下げていっているような気がする。
要するに一部の突出して優秀な連中をさらに高めるような教育をするのではなく、多少なりとも学生全体の(平均的な)能力のレベルアップをしようとしているように見える。
だから、大学を卒業して何か特別なものを身に付けたという学生はほとんどいないけれど、入学前よりは何となく潜在能力が上がっている(気がする)学生はある程度以上いるのである。
まあ、アメリカなどと比べて文盲率がかなり低い日本人は、独学でも結構色々勉強できるから、特別な能力の獲得を大学に期待してはいないのだろうけど。

かなり以前に、MITというアメリカの一流大学のある教授とちょっとだけ教育に関する議論をしたことがある。
その人はこう言っていた。
「ここに来る学生はアメリカで選りすぐりの優秀な連中だ。その連中をさらにレベルアップしてやることがわれわれの仕事だ。できない学生もそれなりにできるようにする、なんてことはわれわれはやらないし、やる必要もない。できる者をさらにできるようにする方がはるかに効率が良いし、やりがいもある。」
何となくその言い方にカチンときた僕は(そのときは教育者でも何でもなかったが)こう言った。
「いや、教育ってそういうものじゃないんじゃないですか。国家全体が賢くなるっていうのは、できのいい人もそうでない人も含めて、みんながその教育のおかげで、その人なりにできるようになるということですよね。僕は、学習者全員をそれなりにできるようにするというのが、本来の教育の役割だと思うのですが。」
そうしたら、こう言われた。
「それは否定しないけれど、そのやり方では国を引っ張っていけるような人材は育てられないよ。日本の大学教育がダメなのは、妙な悪平等が働いて、もともと才能がある人間をちゃんと伸ばせられないところに原因があるんじゃないのか。」
「そうかも知れません。ですが、国民全体のレベルがある程度以上になれば、たとえ突出した人間があまりいないとしても、国家としては健全になるんじゃないでしょうか。」
この件で議論してもあまり意味がないと思われたのか、この話はこれ以上続かなかった。

僕は、頭のいい一部の人間がそうでないその他大勢の人間を引っ張っていけばいい、という考え方にはどうしても同意できない。
その頭のいい人間だって失敗することはあるだろうし、それをちゃんと指摘したり、考えの修正を促したりする人だって必要だろう。
もちろん、リーダーシップが不要だなんて言うつもりはさらさらないし、リーダーがいない組織がうまくいくはずがないと思うが、リーダーとなりうる人材さえ育てられればよいという教育は明らかに間違っていると思うのである。

そもそも、日本の大学教授が国家のリーダーを育成できるほど偉いとは思えない。
僕の父親も大学教授だったが、大学教授だからという理由でその人が偉いと思ったことはこれまで一度もない。
基本的に、僕と学生の違いは経験の違いに過ぎない。
だから、僕は学生から尊敬されたいなどと思ったことはない(感謝されたいと思ったことは正直あるけれど)。
馬鹿にされたり軽蔑されたりするのはさすがにまずいと思うが、別に尊敬される必要はないし、さらに言えば、好かれる必要もないと思っている。

学生に嫌われることを恐れていたら教師なんてやっていられない。
どう思われようが構いはしないが、ある一定の基準だけはちゃんと満たしてから社会に出て行ってもらう。

基準とは、たとえば以下のものである。
1.プレゼンテーションができること
2.ディスカッションができること
3.専門的スキル(たとえば、プログラミング能力)があること
4.一般的な発想力や問題解決能力があること

大学での研究活動とは、これらについて具体的にトレーニングするための方便に過ぎないと思う。
これらはもちろん明確な基準ではない。
そもそも、○○ができるとか、○○する能力がある、というのは、個人によって達成できるレベルが異なる。
僕は学生一人一人にこれらに関する能力がどの程度備わっているかを確認しながら指導を行っている。
そして、それぞれの人に見合った基準値を設定している。
本人の努力が足りなくて、僕が想定する基準に達しないときは、厳しい態度を取る。
やるべきことはそれぞれ若干違うけれど、好むと好まざるとに関わらず、必ずやっていただく。
自分ではがんばっているつもりだ、などというのは言い訳にさせない。

できれば、研究そのものを好きになって自発的にがんばってくれることを期待しているのだけど、あまり贅沢は言うまい。
一流の研究者を育てることが僕の本来の目的ではないのだから。

さて、今回の表題のセンター・オブ・エクセレンスというのは、世界に通用する一流の研究者・技術者を育成する機関という意味である。
一般に、COEという略称で呼ばれる。
この名称はどこかで目にしたことがあるのではないかと思う(企業のトップを表すCEOと混同しないように)。

文部科学省が推進する21世紀COEプログラムというのがある。
僕もそれに少なからず関わっている。
文部科学省に提出する提案書の草案の一部を書いたこともある(もっとも、その痕跡も残らないくらい書き直されてしまったけれど)。
そもそもエリート教育に向いていない(と思われる)日本の大学が、どうしたらCOEたりえるのか。
大変興味深いところである。
僕が知っているのは、さもありなんという話ばかりであるが、多くの人が涙ぐましい努力をしているのも事実である。
この試みの本質がどのあたりにあるのか、僕なりの考えを述べてみたいと思う。
これについて触れるのは、少しだけ勇気と準備がいるので、数日後に続きを書くことにする。

というわけで、後編をお楽しみに。

投稿者 nagao : 21:35 | コメント (258) | トラックバック

2005年11月20日

続報「今、本を書いています」

以前にもこのブログに書きましたが、デジタルコンテンツに関わるさまざまな技術の現状と展望についての本を執筆しています。
今回はそのまえがきの部分を掲載します。

ありったけの知恵を絞って書いているところですので、是非、読んでいただきたいと思います。

まえがき

デジタルコンテンツは、もはや人々にとってあたりまえの、きわめて日常的なものになっています。
Webページはその典型ですが、それ以外にも携帯電話のコンテンツや、デジタルカメラで撮った写真、デジタルビデオカメラで撮影した映像、CDやダウンロードした音楽、デジタル放送などなど。
視聴者は、もはやそれがデジタルであるかどうかなど気にかける必要もなくなってきています。

しかし、デジタルコンテンツであることには重要な意味があります。
デジタル化されたことで、その複製を作るのが簡単になり、複製の過程で情報が劣化しなくなったということがありますが、要するに情報を保存することが容易になったということです。
ただし、保存が簡単ということがすべてではなく、編集などの加工が柔軟に行えるようになったということがより重要です。

これまでももちろん、取得した情報がまったく加工できなかったわけではありません。
たとえば、はるか昔は、写経のように、紙に書いてあるお経を自分なりの字で書き写したり、石に刻むなどして別の形式に変換することもできましたし、絵画を模写して自分なりにアレンジを加えたり、テレビ番組を録画して、お気に入りのシーンを編集して(自分専用の)番組を作ったりなど、デジタルになる前からいろいろとできることはありました。

デジタルコンテンツはそれ以上のことを可能にします。
それは、情報の加工の仕方をプログラミング(自動処理化)できるからです。
これは、非常にありがたいことです。
たとえば、ある大好きな番組のいつも前半15分はつまらない内容ですが、オープニングは見たいのでいつも最初から最後まで録画しているとします。
しかし、できれば不必要な15分は自動的にカットしてしまいたいでしょう。
番組の構成が変わらないのなら、機械的に必要な部分だけ抜き出せるはずです。
編集をプログラミングできるなら、こんなことは造作もないことです。
あるいは、1万ページもの印刷物から特定のトピックに関するものだけを取り出すのは容易ではないですが、コンテンツがデジタル化されていて話題抽出のやり方がプログラミングできるなら、読むべきものを取り出すのは非常に簡単です。

このように、デジタルコンテンツになって情報の取り扱い方は大きく変わってきました。
本書は、デジタルコンテンツの生み出す世界をさらに発展させてもっと面白いことができるようにしようという試みについて述べています。
本書では、基本的に2つの技術を柱にしています。
1つは、トランスコーディングと呼ばれるもので、もう1つはアノテーションと呼ばれる技術です。
もちろん、たとえば作成、検索、配信などのその他の重要な技術についても触れていますが、本書の話題の中心からは少し外れているので必要最小限に留めたいと思います。

トランスコーディングは、コンテンツの変換をプログラミングするための技術です。
これによって、コンテンツは視聴者にとって最も都合のよい形に自動変換できるようになります。
また、アノテーションは、コンテンツにさらなる情報を付与して、プログラミングが容易になるようにコンテンツを拡張するための技術です。
アノテーションはコンテンツを分類するのに容易なタグを付けることや、複数のコンテンツの任意の要素をリンクによって結び付けることなどを含んでいます。

本書では、これら2つの技術を詳しく紹介するだけでなく、これらを統合し、発展させた仕組みを紹介し、デジタルコンテンツの方向性を展望したいと思います。
筆者は、この仕組みによって、Webによって可能になった、たくさんの人を巻き込んだコンテンツの共有化と再利用が、さらに大きく進むと考えています。

筆者は、この本で述べている、デジタルコンテンツに関する新しいテクノロジーに大いなる期待を持っています。
それは、多くの人の作り出すコンテンツが、世界中の人々や出来事をよりよく理解し、社会をよりよく変える原動力になると思っているからです。
そのようなコンテンツを、最大限に活かす技術を生み出すことは研究者の重大な仕事だと思っています。
社会システムを変えるというのはとてつもないことですが、テクノロジーが、多くの人の自発的な行動を促進して、そのような行動が自然に正しい方向を向くようになっていれば、解決すべき問題の本質が見えてきて、そのときまでは実現が困難だと思われていたことも、思いがけないやり方で解決されていくのではないかと思っています。

この本は技術書ですが、啓蒙書でもありたいと思っています。
情報技術の本質というものは、実はそれほどむずかしいものではありません。
専門家でなくても、じっくり考えてみれば十分に理解できるものだと思います。

これからは、コンテンツをただ作成して配信するだけでなく、自分の作ったものも他者の作ったものも含めて、より賢く利用するための仕組みがいろいろ出てくると思います。
コンテンツを賢く使うとはどういうことなのか、また、そのために何をすればよいのか、それによって何がどう変わるのか、ということを読者のみなさんにわかりやすく説明できればよいと思っています。

基本的に、本書は、筆者が直接あるいは間接的に研究開発に関わっている技術について解説していますが、それ以外の重要な技術、たとえば昨今話題になっているブログやSNS(ソーシャルネットワーキングサービス)、セマンティックWeb、Web 2.0などに関しても筆者のわかる範囲で説明を加えています。

コンテンツ技術は、今とても重要な転換点を迎えつつあると思われます。
それは、もちろんWeb技術の進展によるところが大きいのですが、コンテンツがデジタル化されたことによって必然的にもたらされるものだったのです。
読者のみなさんには、コンテンツの可能性の大きさを感じとっていただきたいと同時に、自分や他者のコンテンツをこれまでよりもっと大切にする気持ちを持っていただきたいと思います。

コンテンツはきっとみなさんにとって貴重な財産になるでしょう。
そして、そのような財産にさらにどんな価値を加えていくかは、みなさん一人一人が考えて、実行していくべきことなのです。

投稿者 nagao : 23:51 | コメント (2) | トラックバック

2005年10月28日

コーディング脳

10月になってしばらくコーディングをやっていた。
僕はもうEclipseでJavaやJavaScriptのコードを書くくらいのことしかやっていないけれど、コーディングは好きである。
デザインパターンも知らないし、MVCモデルなんかもあまり気にしていないけれど、RDBやXML/RDF、Servlet(Apache Tomcat)などの使い方はかなりわかってきた。

それにしてもJavaって本当によくできた言語だと思う。
1995年に、当時、馬鹿シンクと呼んでいたThinkPad 750(馬鹿でかいので)にWindows NTをインストールしてHotJava(って知ってる?)ブラウザを入れて、Java Appletを動かして遊んでいたのをよく覚えている。
その後、待ちに待ったWindows 95日本語版が発売されると即買いして、当時一世を風靡していたNetscapeでやはりAppletを動かして、以前にもここに書いたHyperPhotographのデモをしたりしていた。
以来ず~~っとほとんどJavaばかり書いている。
それまでよく書いていたC、Lisp、Delphiなどの知識はほとんど失われた。
PerlやRubyやPythonなんてまったく興味がわかない。
JavaScriptは今でも書いたりするが、以前から好きじゃなかった。
でも、AJAXのおかげ(というか今まで知らなかっただけだけど)で、がぜん面白くなった。

と言いながら、別に普段からいつもコーディングをやっているわけではない。
大学に職場を移してからは、自分ではあまりコードを書かず(学生が書かないときは仕方がなく急場しのぎのコードを書いたことはあるが)、ほとんど、学生の書いたコードを読んでいるばかりだった。

今月になってコーディングを再開したのは、僕のライフワークの一つであるSemCodeプロジェクトにおいて、ある転機が訪れたからで、それは以下のことである。

一つは、SemCodeのデモによく使っていたPC(これもThinkPad)が突然壊れたことである。
忙しくてこまめにメンテできないので、デモ用のマシンを固定して、OSなどの環境も古いままにしていた(だから、デモ用のマシンには旧式のWindows 2000が入っていた)。
だから、ちょっと来客にデモを見せようと思って、そのマシンを起動したら、まったく立ち上がらなくなっていたのだ。
やばい、と思ったが、後の祭り。

それでバックアップしておいたプログラムやデータをかき集めて、自分のマシンにインストールし直した。
その過程でいろいろと昔のことを思い出した。
ついでに、やり残した作業がたくさんあったことに改めて気がついた。

二つめは、僕のいる研究室で開発中の、アノテーション共有プラットフォーム(Annphonyと呼ばれている)がようやく利用可能になったのである。
これは、RDBベースのXMLデータベースと、Jenaと呼ばれるRDF用のJavaライブラリを組み合わせて、Webページや音楽やビデオを含む任意のデジタルコンテンツにアノテーション(メタ情報)を関連付け、容易に検索できるようにした仕組みである。

Annphonyについてはいずれ詳しく述べてみたいと思うが、ちょっとだけ補足してみよう。
アノテーションとは、コンテンツと複数のリソース(コメントや属性など)を結び付け、コンテンツに付加価値を付けるものなので、必然的にグラフ構造になる。
そのグラフ構造を柔軟に扱う仕組みがRDFとRDFスキーマなのである。
しかし、一般に一つのRDFデータは単一のリソース(コンテンツ)をその指示対象(メタ情報を付与する対象)とするものなので、複数のリソース(複数コンテンツあるいはその要素)を同時に対象にできるように拡張する必要がある。
さらに、音楽やビデオのように通常のURIではその内部要素を指示できないもの(XMLやHTMLならXPointerで要素を指定できる)に関して、URIにタイムコードを付けてコンテンツ要素をポイントできるようにした、エレメントポインタと呼ばれる仕組みも同時に開発している。
Annphonyはそれらの工夫を盛り込んだ画期的なフレームワークなのである。

三つめは、未踏ソフトウェア創造事業の採択者たちに触発されたことである。
彼ら(彼女を含む)のやる気は見ていて気持ちがよく、僕も自分の力で何かをしなければいけない気になった。
僕が研究している、コンテンツへの意味的アノテーションの話は、何をやるべきかよくわかっている人が少なく、技術的な進歩もすごく遅い。
だから、自分から動いて、いろんな人を動かすしかないような気がしている。
いくら技術力があっても、言葉の意味をまともに扱うなんて迂遠なことにGoogleなどが手を出すとは思えない。
一般ユーザーによるtaggingに基づいたFolksonomyではダメだし、Google Baseのような(まだよくわかっていないけど)semi-structuredなデータ入力方式でも不十分である。
やはり、世界的に見ても僕(と僕のよく知っている人。ただしその人はマネージメントで一杯一杯である)が一番、その問題の最良の解決法に近いところにいるような気がするのである(もちろん、それは錯覚に過ぎないのかも知れないけれど)。

ところで、僕はよく学生の書いたコードを読んでいる。
最初のうちは見るに耐えないものがほとんどだったのに、徐々に読めるものになってきた。
情報技術に関わるものがコードを書けないのではお話にならないから、僕のいる研究室では必ずコーディングをしなければならないことになっている。
それもJavaで。
無論Eclipseを使って。
さらに、RDBやWebサーバー(Servlet)の使い方を必ず覚えて、自分のアイディアをクイックに実装できなければならない。
ついでにXMLとRDF+RDFスキーマも勉強してもらって、木構造データやグラフ型メタデータの扱い方もマスターしてもらう。
PerlやPHPをやりたい人はやればいいけど、あまり薦めない。
Javaの方が他の人(特に、僕)に読んでもらえるコードを書けるからだ。

僕より学生の方が新しい技術への適応が速いから、最近はこんなことができるんだ、ということを、コードを書いて説明してくれる。
僕は、これは、しめたものだと思った。

彼らのやっていることをよく見ていれば、特に労せずして新しい技術を習得することができる。
教師と学生の立場が逆転しているような気もするけれど、日進月歩の先端技術とはえてしてそういうものである。
教師は技術の正しい方向性を学生に示せばよいのであって、細かい技術の一つ一つを手取り足取り教える必要なんてない。

そんなわけで、僕は学生のコードを読みながら、自分なりの構想を練り上げているところだった。

そんな矢先に、突然コーディングをすることになった。
それで2週間ほど集中的にコードを書いていたら、他の仕事がまったくできなくなってしまった。
このブログもそのせいで書けなくなった。
その理由は、寝ても覚めてもコードのことを考えているからだ。
脳がコーディングに特化されてしまい、他のことにまったく集中できないのである。

ゲーム脳なんて言葉もあるけれど、コーディング脳というのもあるような気がする。
僕はコーディング中にどんなに煮詰まっても紙に図や式を書いて考えることはない。
常に頭の中でアルゴリズムを組み立て、それを直接コードに組み込んでいく。
図や式を書くのは、他人に自分の考えを説明するときだけだ。

僕の思考の過程はそのままコードの中に現れていく。
後になって、もっとよいアルゴリズムを思いついたときは、それまでの思考の過程を白紙に戻して、もう一度やり直す。
だから、コード上で複数のアルゴリズムを比較する、ということはやらない。
頭の中でいいアルゴリズムだと思ったら、それだけがコードして残るのである。

たぶん、自分のものぐさな性格が災いしているのだと思うが、コーディングにはものすごく集中力を要する。
そんなときの僕は他のことにはまったく注意が回らない。
通常のコミュニケーション(学生からの質問に答えるなど)すらまともにこなせないときもあったりする。
そんなときの学生は気の毒である。

本当にわれながら情けない。
何かに突出して秀でた人は、必ず何かが欠落している、というのはよく聞く話だけど、僕程度の人間でも、そういう部分(何かに本気で取り組むと別の何かを失う)があるのだと思う。
それでも、コーディングをやめると自然に元に戻るのだけど。

同じようなものに、議論脳というのがあるような気がする。
何日間か議論に集中すると、しばらく他のことができなくなるのである。
頭は使うほどよくなるというけれど、ものすごく頭を使ったときに他のことができなくなるのは困りものである。
仕事がたまる一方だからである。
つくづく自分は経営者には向いていないと思う。
一つ一つのことをじっくり考えていたら、確実にビジネスチャンスを失うだろう。

そのコーディング脳で何を一所懸命作っていたかについては、いつかここに書こうと思う。


今回の話には落ちが思いつきませんでした。
たまにはこんな愚痴っぽい話もありですよね。

投稿者 nagao : 03:36 | コメント (211) | トラックバック

2005年10月23日

人を賢くしないもの

このエッセイもどきの当初のタイトルは「Googleの功罪」というものだった。
Googleを代表とする検索エンジンにひどく危険なものを感じはじめているからである。
でも、ある理由で変えてしまった。
先日「インターネットは「僕ら」を幸せにしたか?」(森健著 アスペクト 2005)という本を書店で偶然見かけて何気なく目次を見たらまったく同じタイトルの章があったのだ。
驚いて、つい買って読んでしまった。

この本にはいくつかの誤りが見受けられるが、一貫してこのネット社会(さらに言うと、監視社会だそうである)に自らの意思に関わらず埋没してしまっている人たちに警鐘を鳴らしている。

僕はこれまでどちらかというと技術を提供する側が考えるべき点についてばかり論じてきており、技術を使う側が心しなければならない点についてはあまりちゃんと言ってこなかったような気がする。
今回はその点を反省しながら、少し論じてみたいと思う。

結論を先に言ってしまうと、検索エンジンを何の疑いもなく使っている人はいずれ判断能力を失って馬鹿になってしまうだろうということである。


検索エンジンGoogleを使って、友人や知り合いの消息を調べることをグーグリングというらしい。
つまり、名前で検索して見つかったいろいろな情報の中からその人の現在の状況を知ろう、ということである。
さらに、自分の名前でグーグリングして、自分が世間においてどう位置づけられているかを知ろうとすることをセルフグーグリングというらしい。

僕はこのセルフグーグリングが嫌いである。
自分が無名人で、検索してもヒット数が少ないからそう思うのではない。
だいたい、たかが検索エンジンのヒット数でその人間のことをランク付けしようなどという発想は馬鹿げている。
同様にmixiなどのSNSでの友人の数を競ったりするのも(まじめにやっているとしたら)まぬけだと思う。
人が持てるいい友人の数なんてたかが知れている。
希薄な友人関係を数多く持つより、いい友人と充実した関係を築く方がよほど人生を豊かにするだろう(そんなことは言われなくてもわかってるでしょうけど)。

それに、うっかりセルフグーグリングなんかして、ネット上で自分に対して言われていることをついつい気にしてしまうなんて嫌過ぎる。
どんな人間にも暗くて陰湿な部分はあるから、その部分をクローズアップされると全人格を否定されたみたいな気になって、本来悩まなくていいことで悩んでしまうだろう。
見ず知らずの他人の言うことなんて気にしなければいい、ということならば、そもそもセルフグーグリングなんてする必要はまったくない。

僕が書いた文章や、研究開発に関わったソフトウェアなどの作品に批判が集まるのは仕方がないし、真摯に受け止めたいと思っているが、それはそういう批判を直接目や耳にした場合のことで、わざわざ検索しないと見つからないような意見を積極的に考慮しようとは思わない。

よく掲示板等で作品や人物の批判をする人を見かけるけれど、本当にその批判の対象に反省や再考を促し、変化を期待しているならば、直接コメントを送ったほうがよいだろう。

閑話休題。

少し前まで僕は検索は人を賢くするものだと信じていた。
それは、人間の好奇心を活性化し、自らの意思で行動する意欲を向上させるものだと思っていたからだ。
その結果、人間の創造力は強化され、さらに面白い文化を作っていくだろう、と。

しかし、現状はどうも違うようだ。
検索は人間をダメにしてしまっている感じである。

その顕著な例は、ネット情報のコピペによるレポート作成問題である。
僕が担当した講義でもそういうことがあった。

ご丁寧にリンクまでそのままコピーしてあったりした(ブラウザ上でコピーしているはずなのに、なぜURLまでコピペされるのだろう)。
それでそのページを見たらレポートそのままだったので単なるコピペであることが発覚した。
僕はその学生に書き直すように指示したが、なしのつぶてだったので低い成績をつけた。

そんなやつは検索があろうとなかろうとダメダメに違いないので、検索が悪いわけではない、と言う人もいるだろう。
しかし、レポートをコピペで書いてもほとんどばれなかった時代があったと思う。
それは本などに書いてある部分を自分で書き直す手間があったからだ。
一応、紙に書いてあることをタイプし直したとしたら、少しくらいは頭に残るかも知れない。
しかし、ネットからコピーした場合は、ほとんどまったく加工をしないだろうから、頭に残りようがない。

今の検索技術は、人々の考え方だけでなく、教育そのものもゆがめてしまっている気がする。
僕が以前に担当した講義で、試験の説明をしているときに、資料持ち込み可であると話をすると、「PCを持ち込んでいいですか」という質問があった。
ネットにつないで検索するためだ。
僕は結局ダメという返事をしたが、ぐぐって試験問題の答えが見つかると思ったからではなく、PCを使えば会場内でチャットできるからカンニングし放題だと思ったからだ。
でも学生はぐぐったら答えが見つかると思っているのだろう。
自分が必要とする情報のすべてがWebで見つかるという錯覚は、明らかにその人間の学習意欲を減退させ、ダメにしていくだろうと思う。

近ごろ話題の「ドラゴン桜」という漫画の中に、「蛍光ペンを捨てろ」という話があるらしい。
これは、蛍光ペンで単語をマーキングするとそれだけで覚えた気になってしまうことを問題にしているそうである。
検索も同様で、自分がローカルに持っている情報ならまだしも、Webを検索すればいつでも答えが見つかると思って、自分がまだ持っていない知識を、わかっているつもりになってしまうとしたら、何と愚かなことだろうか。

大学の講義で教えていることは、確かに知識的な内容がほとんどであるが、もちろんそれだけではない。
関連するキーワードを教えてもらえれば、後で時間のあるときにぐぐって調べます、なんていうことで済むはずがないのである。
講義では、断片的な知識の寄せ集めではなく、もっと深い文脈のあることを教えているんだから、検索なんかしても見つかるはずがない(講義そのもののビデオが見つかるなら話は別だけど)。
しかし、学生は後で検索すればいいやと思って、まじめに講義を聞こうとしない。
そして、レポート課題には、ネット情報のコピペを提出する。
これはひじょうにまずい状態だと思う。

検索エンジン(特にGoogle)はいつから世の中そのものになってしまったのだろう。
日常的にネットに接している人がマイノリティであった時代は検索エンジンの重要性なんてさほどでもなかったのだろうが今は違う。
検索を制するものはネットを制する、とまで言われるようになってしまった。

検索結果に基づいて考えを修正したり強化したりするのはよいけれど、検索に決定を委ねてはいけない。
それは人間を堕落させる要因になるからだ。

無論、検索エンジンを使うななどと言うつもりはさらさらない。
でも、「この問題、今はよくわからないけど、後で検索すればいいや」とか「あいつの言っていることって、ぐぐれば出てくる話だよね」なんていう考え方をして、知識をWebに肩代わりしてもらっている人間が賢いと言われるような時代は、金輪際訪れることはないだろう。

投稿者 nagao : 23:15 | コメント (162) | トラックバック

2005年09月18日

モノトニックな編集

誰もが百科事典の執筆者になれるWikipediaのすごさは、その創設者であるジミー・ウェールズの次の言葉に表れていると思う。
「書いた記事をそのまま残す唯一の方法は、正反対の立場の人間でも納得するようなものを書くということだ」(朝日新聞社刊「ブログ 世界を変える個人メディア」より)

誰にでも編集できるドキュメントをネット上に残すということは必然的に中立で公正で正確なものにせざるを得ないということらしい。

これは僕にとって衝撃である。
僕はWikiの思想が嫌いなのだが、その理由は、まさにその「誰にでも編集できる」という点だったからだ。
世の中には悪意を持った人間が必ずいる。
そして悪意を持った人間が匿名という隠れ蓑をかぶるとたいていろくでもないことをする。
そんな人間がうようよいる中で、Wikiなんかやったら「どうぞ荒らしてください。気に入らない文章を改ざんするのもご自由に」と言っているのと同じだと思っていた。

でもそうじゃないというわけね。
Wikipediaでは、ボランティアの力で、悪意を持った人たちの暴挙を見つけては修復するという作業を延々と繰り返し、そういう人たちがあきらめて去っていくのを待つ、という戦略をとっているらしい。
200人ほどが常時チェックし、1000人くらいが継続的に書き込んでいるそうだ。

多くの人間の自発的な努力で、公正で正確な情報を生み出して共有するという仕組みはまったくすばらしい。


いや、ちょっと待てよ。
人間の生み出すもので、真に中立で公正なものなんて本当にあるのだろうか。
正反対の立場の人間でも納得できる文章なんて本当に書けるのだろうか(ディベート慣れしている人間なら書けるのかも知れないけれど)。

複数の立場からの解釈や意見を書き、あえてそれらに対する評価(優劣をつける、など)を書かない、というならば理解できるけれど、それでは、その文章を書いた人の考えや伝えたいことはどこにあるのだ、と思ってしまう。
文章を書く人間が常に中立でなければならないなんて、窮屈でしょうがないじゃないか。

つい先日行われた第44回衆議院議員総選挙は、客観的な事実のみで説明しても、その本質を伝えるのは困難だと思う。
衆議院の総議席の3分の2を与党(しかも、ある法案への反対者を造反者と呼ぶような政党)の議員が占めることの危険さは、実際にその影響が目に見える形で現れるまでは憶測でしか語ることができない。
事実としては、しばらくは参議院がもう意味をなさない、ということだけだ。
でも、もし、たとえば人権擁護法案などが十分に議論・推敲されないまま可決され施行されたとしたら、国益を害すること著しいだろう。
そうなったら、本当にこの国はやばいと思う。
それにしても、今回の選挙でわかったことは、自民党や公明党はひたすらあざとくて、民主党はひたすら愚かだということだろう。
僕が投票した選挙区の近くでは、「カリスマ主婦」とかいう人が約8万8千票を獲得した(小選挙区では落選したが、比例で当選した。自民党の東海ブロック1位だから当然だが)。
この人は料理研究家だそうだが、そんなの政治には関係ないじゃないか。
人気があるのはわかるけど、話していることを聞いても、政治に関わる動機付けが弱すぎる。
参議院ならまだ許せるけど衆議院である。
以前からそうだけど、本当に自民党(に限らないが)は有権者をなめている(8万8千人も投票するんだから、なめられても仕方がない気がするけれど)。

閑話休題。

やはりWikiの仕組みでは、人間の労力がかかり過ぎてダメな気がする。
常時チェックしている人が何人もいるとしても、バージョン管理をしているにしても、万人が同じコンテンツを自由に編集可能にするのは全体の負担が多過ぎるし、そもそも何か大事なものを失ってしまう気がする。

一般的な編集の問題は非単調(ノンモノトニック)なことだ。
これは、前にやったことを次にやることがひっくり返してしまう(あるいは、なかったことにしてしまう)ことである。
たとえば、校正や推敲という行為は、誤りを直したり、表現を改めたりするわけだから、必然的にノンモノトニックになってしまうじゃないか、という人がいるかも知れない。
しかし、これは比較的短期間において、一人の人間が、自分の書いた文章に対して行うものだと思う(もちろん、例外はあるだろうけど)。
ここで問題にすべきは、不特定多数の人間が非同期に作成するドキュメントに関することであり、必然的にその編集の形態はこれまでとは変わっていくべきだと思う。
また、たとえ同じ人間でも、時間がたてば考え方が変わるかも知れないから、違う人間として扱ってもよいのではないかと思う。

これと反対の概念が単調(モノトニック)である。
これは、前にやったことを変えずに次のことをやることであり、以前の文章を削除したり書き換えたりせずに、次の文章を書き加えていくことに相当する。
「Aである」と書いてあるところに、「Bである」と書きたいとき、「Aである。いや正しくはBである」と書くのはモノトニックだが、「Aである」を削除して「Bである」と書くのはノンモノトニックである。

和歌の上の句と下の句を別の人が詠む連歌というものがあるが、これもモノトニックな編集(ここでいう編集は創作を含むものとする)の一例である。

バージョン管理しているんだから、削除しても戻せるから、それでいいじゃないか、と思うかも知れないが、そうではない。
たとえ、「Aである」が削除されて「Bである」が入力されたという履歴が残されていたとしても、「AとBの中間である(実は、これが一番適切だとする)」と書こうとしている人にとって、あまりうれしい情報ではないのである。
たとえば、「Bである」の状態なら、Aの説明もした上で「AとBの中間である」と書くわけだし、履歴を使って「Aである」の状態に戻してからなら、Bの説明もした上で「AとBの中間である」と書くことになり、どちらにしてもあまりうれしくないのである。
どうせなら、AとBの両方の記述が残っていたほうが書きやすいのに、と思ってしまうだろう。
つまり、バージョン管理は一般に木構造を構成し、各バージョンは枝分かれの節点となる。
一般に、分かれてしまったものを再び統合するのは容易ではないのである。

では、すべての編集をモノトニックにやる方法はないだろうか。
上の例では、「Aである」も「Bである」も「AとBの中間である」もすべて書き、いずれの書き込みもそれ以外のものを削除して行うものではない、ということである。

ただ単に、すべて書き、何も削除しない、ということではまずい。
書き込みの間の依存関係がわからなくなってしまうからだ。
多くの場合、複数人の書き込みには何らかの依存関係がある。
この場合の依存関係は、新しい書き込みが以前の書き込みを訂正したり、補足したり、批判したり、反駁したりする、などの関係である。
これらの依存関係を維持しつつ、すべての情報を読み手が混乱しないように残しておく仕組みは考えられないだろうか。

僕らの考えている仕組みはそれを可能にすると思っている。
それはアノテーションとトランスコーディングに基づくものである。
アノテーションは新しい書き込みの内容と、すでにある書き込みとの依存関係を同時に表現することができる。
それぞれの書き込みごとにレイヤーがあって、それらが重なっているというイメージで、レイヤー間に依存関係が定義される。
これはWebページ内の任意の箇所へのコメント付与として実現されているものがある。

これだけだと、ただ重なっているだけで大変読みにくいので、自動的に、依存関係のあるものをまとめて、整理して表示する必要があるだろう。
これはトランスコーディングと呼ばれる仕組みで行う。

トランスコーディングについては、いろいろなところで話したり書いたりしているのだが、今ひとつ浸透していない。
要するに、コンテンツがユーザーに届けられる過程で、アノテーション等のメタコンテンツをオンデマンドに統合してコンテンツを動的に変換する技術である。
もちろん、クライアントが十分にリッチであれば、すべての情報を取り込んでから、表示すべき内容をインタラクティブに決めればよいのであるが、読むという作業と決めるという作業を同時に行うのは結構負担がかかるから、できれば、読んでいる途中の段階ではいちいち選択したくないだろう(ハイパーテキストがいまいち読みにくいのはこのためだと思われる)。

そういえば、ハイパーテキストの発明者であるテッド・ネルソン(ちなみに、Webの発明者ティム・バーナーズ=リーはハイパーテキストに触発された自らの着想について彼の意見を伺っていたらしい)が慶應SFCで行った研究にトランスパブリッシング(transpublishing)というのがあるが、これがまさにモノトニックな編集を実現しようという試みだった。
これは、ネットワーク上での著作物に関する著作権問題を解決するために、著作物の利用をコピーではなく特殊な引用(それをtransquotationと呼んでいる)に限定して、引用元の情報(の一部)が引用先に自動的に埋め込まれる仕組みによって、その著作物の再利用を実現しようとするものである。
このような引用によって、原著作物を尊重し、その権威を保証することで、原著作者の著作物利用権の許諾は自動的に得られるという基本的な合意を、トランスコピーライト(transcopyright)と呼ぶそうである。
この研究が今どうなっているのかわからないが、まだまだ一般的に普及しているとは言い難い状況である。

著作権の問題は少々ややこしいし、それは技術だけでは解決できないと思うが、それ以外のことなら、アノテーションとトランスコーディングで解決できるだろう。
このような仕組みによって、悪意を持った書き込みを排除し(というか、表示しないようにし)、整合性のとれた書き込みのみを表示することができる。
それだけではなく、競合関係にある書き込みを比べて、どちらの主張が正しいかを検討することもできる。
これはノンモノトニックな編集(つまり、競合関係にある記述を削除して、新しいものを書いてしまうこと)では不可能であったことである。

将来は、アノテーションとトランスコーディングを利用したモノトニックな編集があたりまえのものになって、同じドキュメントでも、年齢が上がり知識や経験が増えていくに従って、異なる読み方ができるようになるだろう。

かなり前のことになるが、「本当は恐ろしいグリム童話」(KKベストセラーズ 1998)という本が話題になった。
この本は、グリム兄弟が1812年に上梓したグリム童話の初版にいくつかの解釈を加えて書かれている。
グリム兄弟はその後、当時の批判に答えるために、改訂に改訂を重ねており、1857年に第7版が出版されている。
現在、日本で一般に知られているグリム童話は、この第7版の邦訳である(ちなみに、原書はドイツ語である)。
たとえば白雪姫などは、ディズニーがさらに子供向けに改変したものが広く知られていると思う。
ディズニーの白雪姫しか知らない人(実は僕もそうであった)が、オリジナルの物語を知ったらさぞ驚くだろう(これでは白雪姫より毒リンゴを食べさせた王妃に同情したくなる)。

グリム童話は不特定多数の著者によって書かれたものではないが、そもそも民話や神話などを下敷きにして書かれたものであるし、初版の刊行後に多くの批評家からの批判を受けて改訂しているわけだから、ある意味、共同著作のようなものと考えられる。
もし、モノトニックな編集によって改訂版が書かれていたとしたら、どのような意図でどの部分を変更したか、思考の流れがしっかり読み取れたかも知れないし、著者や翻訳者が難解と判断し、削除してしまった部分も、読者のレベルに応じて詳細に表示して、より深い背景を知ることができただろうと思う。

モノトニックな編集は、人々の書き込みが集まっていくさまを忠実に残し、その総体から大きなストーリーが生み出されていく過程を表現できるだろう。

投稿者 nagao : 00:22 | トラックバック

2005年09月02日

音楽アノテーションとプレイリスト

ウォークマンの第1号機が発売されたとき、僕は高校生だった。
やたらでかくて重たそうだったが、なんだかわくわくするような機械だった。
ヘッドホンを付けているときに周囲の音が聞こえなくなって不便な場合を想定して、本体に外の音をひろうためのマイクが付いていて、ボタンを押すと音楽からマイク入力に切り替わるような仕組みまで付いていた。
そんなの、ヘッドホン外しゃいいじゃん、と思っていた。
そのときはちょっと高くて買えなかったのだけど、その後大学に入ってから、爆発的にヒットしたウォークマンIIの赤を買った。
それ以降、ずいぶんいろいろな機種を買った。
でかかった最初のオートリバース機や防水型で太陽電池のついたものとか、ワイヤレスヘッドホンのもの(こいつがひどくて、同じ機種を持っている人が近くにいると、距離によってはそっちの音が聞こえてきた。満員電車の中で聞きたくもない演歌を聞かされたこともあった)、MD版の第1号機も持っていた。
録音機能も付いているすぐれものであった。

しかし、会社に入ってしばらくすると、電車の中や歩きながら音楽を聴くこともなくなってしまった。
フレックスタイムになって満員電車に乗らなくなったせいもあり、座って会社に行けるようになると、電車の中でノートPCを広げて作業をするようになった。
電車の中ではひたすらノートPCに向い、降りると目的地に向って走る。
そんな生活を続けていると、移動中に音楽を聴いている余裕もなくなってしまった。

なのに今は、iPodにはまっている。
職場が会社から大学に変わったら、再び音楽と密着した生活になった。
そういえば、通勤の途中でノートPCを開くことが少なくなった。
出張中の新幹線の中ではさすがにノートPCに向っているが、同時にiPodを聴いている。
これは生活に余裕が出てきたということだろうか。
いや、最近、プログラミングのスピードがかなり落ちてきたし、文章もろくに書いていない(だから、このブログでリハビリをしているのだけど)。
仕事のパフォーマンスがしっかり落ちているじゃないか。
ただ言い訳をさせてもらうと、学生の指導のことを考えている時間が非常に長くて、自分のことをやっている時間が減っているのである。

なぜiPodを使うようになったかというと、僕のいる研究室の学生が音楽へのアノテーションとプレイリストの自動生成などの研究を行っているからである。
僕は最初、この研究に十分な深みがあるのかどうか疑問だった。
学部生がやる研究なら、時間があまりないから、どうしても浅くなってしまうのだけど、大学院生がやる研究の底が浅いのはとてもまずい。
自分が一所懸命取り組んだものが、たいして重要なものではなかったことが後でわかったとしたら本人の落胆は小さなものではないだろう。
では、なぜ疑問だったかというと、音楽の構造や意味に関する工学的アプローチが場当たり的なものになってしまうのではないかということと、音楽の信号処理による自動解析はもうできることはほとんどやられてしまっていて、これからやれることは他の人がやらなかったニッチしかないのではないかと思ったことが主な原因である。

しかし、僕らはデジタルコンテンツ一般を対象にした研究を行っているのであるから、当然、音楽コンテンツのうまい扱い方も考えるべきだろう。
そしてそれは音楽に新しい役割を持たせることになる。

音楽へのアノテーションとは、楽曲の全体や部分に構造的な情報や意味的な情報を関連付けるものである。
アノテーションには楽曲を聴いた人の印象やコメントなども含まれる。
さらに、どんな状況で聴いたか・聴きたいかなどのアンケート的な質問の答えもアノテーションとして曲に関連付けることができる。

このような仕組みの応用に、楽曲検索がある。
曲名や歌詞、アーティスト名、さらにジャンルやヒットチャートランキング等による検索や、ユーザーの好みの類似性に着目した協調フィルタリングなどが実現できる。

さらに興味深いのは、音楽アノテーションは、鑑賞者のそのときの状況に合った楽曲集つまりプレイリストの生成に利用できることである。

プレイリストはかなり以前からあるけれど、iPodのおかげでがぜん注目度が上がってきたと思う。
AppleのWebサイトでもセレブリティ・プレイリストとかいう企画で、有名人の選んだ曲の一覧などが掲載されている。
好きなミュージシャンの好きな曲というのは興味があって当然だと思う。

もちろん、他人が作ったプレイリストより、今の自分に最も適したプレイリストを作成することの方がよほど重要だろう。
携帯用のコンテンツサービスに「着うたフル」みたいなものがあるが、オンデマンド音楽配信をモバイルでやることにそんなに意味があるとは思えない(音楽配信の敷居を下げることには貢献していると思うが、iPodユーザーならiTunesを使えるから、これは携帯しか使えない人向きのサービスですね)。
やはり、聴きたい曲を聴きたいときにダウンロードするのは、あまり効率がよくないと思う。
それよりも定期的に曲を一括ダウンロードして、全部持って歩き、何を聴くかはすでに手元にある曲のプレイリストをオンデマンドに生成したり再利用したりするのが一般的になると思う。
重要なのは、今聴きたい曲を一つ一つ選んでいくというより、今の気分に合ったプレイリストを生成あるいは選択する、ということである。


日本が世界に誇る漫画であるドラえもんの道具の中に、「ムード盛り上げ楽団」というのがある。
バイオリン・ドラム・トランペットを持った3体の小型ロボットたちが、主人の後をついてきて、BGMを奏でて気分を盛り上げてくれるというものである。
元気を出したいときはアップテンポの曲で、落ち着きたいときはスローな曲、という感じである。
今やBGMのないドラマは想像できないくらいに、BGMは人の心情や行動とシンクロして、その印象を強めることができる。

音楽が人をリラックスさせ、時に記憶の想起を促し、気力を向上させ、脳を活性化させるのは間違いがないだろう。
だから音楽を効果的に使って、人をよりアクティブに充実した時間が過ごせるようにするというのはとても意義のあることだと思う。

ところで、多くの人は自分自身のテーマソングを持っているのではないだろうか。
落ち込んでいても、その曲を聴いているうちに何となく元気になれるような音楽である。
僕は大学時代にスキー部でジャンプをやっていたせいで、Van HalenのJumpという曲がテーマソングだった(そのまんまですね)。
この歌を聴くと野沢温泉スキー場の向林ゲレンデのジャンプ台の情景が頭に浮かび、飛ぶ前の恐怖感と高揚感や、夏合宿のサマージャンプでこけて左ひざのじん帯を怪我したことなどが思い出されてくる(夏にスキージャンプはやっちゃいけません)。
いい思い出ばかりではないが、でも、気分は盛り上がってくる。

「ムード盛り上げ楽団」みたいな機械は、現在の技術で結構できるのではないかと思う。
確かに人間の気分や意図などの心的状態を知るのはむずかしいけれど、行動履歴や習慣や大雑把な生理学的情報から、多少失敗するのは覚悟の上で、適切なBGMを選択するのは可能ではないかと思う。

それに、「ムード盛り上げ楽団」は生演奏なので関係ないけれど、普通は1曲だけでは時間が合わないから、似たような曲を複数曲、いい感じで続けて流すのがよいだろう。
つまり、プレイリストである。

iPodのように何万曲も保存できるものなら、ムードを盛り上げるためにわざわざ新しい曲をダウンロードする必要なんてないから、プレイリストだけオンデマンドに生成できれば十分である。

人間のそのときの状況に関する情報と音楽へのアノテーションを用いることによって、その人の気分を盛り上げるためのプレイリストが生成できるだろう。
最初のうちは、結構外してしまうかも知れないけれど、統計的手法による学習機能によって、徐々にその人に適合したプレイリストが作れるようになるだろう。

iPodが携帯型「ムード盛り上げ楽団」になる日は近い。
音楽が今やっている仕事を不用意に妨げることもなくなり、むしろ、気が乗らないときにもそれなりにやる気にさせてくれるかも知れない。
そうなったら、もう二度と、僕は音楽を持ち歩くことをやめたりしないだろう。

投稿者 nagao : 00:27 | コメント (5) | トラックバック

2005年08月26日

Dashboard Widgetが捨てたもの

かつて(1999年頃)、IBMはXMLの説明をするのに「XMLはe-businessのために必要な最後のピース」という説明をしていた。
e-businessという言葉はすでに死語であるが、まあ、ネットビジネス一般のことであることは想像がつくだろう。

「最後のピース」という言い方は、ジグソーパズルで最後に残った部分を指していて、これがはまると完成する、つまり、ネットビジネスの仕組みはほとんど出来ているのだけど、まだ足りなかったものがある、それがXMLだということである。
何が出来ていたかというと、「TCP/IPによってユニバーサルなコネクティビティが、Webブラウザによってユニバーサルなプレゼンテーションが、さらにJavaによってユニバーサルなプログラミングがもたらされた」のだそうで、「最後に残されたデータのユニバーサル化をもたらすものがXMLである」ということだそうである。

これを聞いたとき、僕はIBMの研究所にいたのだが、正直「うまいこと言うなあ」と思っていた。

しかし、この話には盲点があった。
「ユニバーサルな○○」というのが、そうでないものに比べてよいものである、と思わされてしまったが、実はそうではない場合があるということである。
ちなみに、ここでのユニバーサルとは、汎用的、あるいはプラットフォームへの依存度が小さいという意味である。
また、最近よく言われる「ユニバーサルデザイン」という言葉のユニバーサルは万人向け、つまり、ユーザー(のスキルや特性)への依存度が小さいという意味である。

言われてみればその通りである。
TCP/IPがなければさまざまなOSで動いているマシン同士が通信できず、インターネットも実現しなかった。
Webブラウザがなければ、Web上のコンテンツのそれぞれに応じたビューアが必要になり、マルチモーダルなコンテンツのシームレスな表示が困難であった。
Javaが提供されなければ、プラットフォームを気にしないアプリケーションなど考えることもできなかった。
そして、XMLが提案されなければ、ネット上のさまざまなアプリケーションの相互運用性をきちんと議論することができなかっただろう。

それはそうなのだけど、本当に何でもかんでもユニバーサルでなければならないのだろうか。

その考えを真っ向から否定したものがある。
Mac OS X TigerのDashboardである。
Dashboardとは、デスクトップを2層構造にして、一方をメインタスク(たとえば、メールや書類を書いたり、プログラミングしたり)用に、もう一方をサブタスク(たとえば、辞書を引いたり、日付や時間を見たり、計算や単位の換算をしたり)用にすることで、仕事のやり方にメリハリをつけたものである。
メインタスクとサブタスクは性質が異なるので、同じデスクトップに混在させない方がよい、という発想はよくわかる。
Dashboardは、Windows系OSでも動くKonfabulatorというソフトとほとんど同じものであるが、こういう仕組みはOSの機能の一部として組み込まれている方がよいのではないかと思う。

これは仕事のあり方だけでなく、Webアプリケーションの一つのあるべき姿を見せてくれた。
つまりWebサービス連動型デスクトップアクセサリである。

Dashboard上で動くプログラムはWidgetと呼ばれるが、これは基本的にHTML、CSS、JavaScriptで構成されているにも関わらず、通常のブラウザ上では動かず、Dashboardのみで動く。
また、WidgetはXMLHttpRequestという仕組みで非同期的にWebサーバーと通信して、暗黙的に情報を取得し処理をすることができる(Google Mapsでも同じ仕組みが使われていますね)。
これは、Web技術もXMLも十分に使っているにも関わらず、ユニバーサルなんかじゃない。

僕は、DashboardおよびWidgetはとてもすばらしいと思っている。
それはWebブラウザの持つユニバーサリティを捨て去ったからである。
ある種のWebアプリケーションをユーザーにとってわかりやすく便利なものにするために、Webブラウザの持つユニバーサリティはかえって邪魔だったのである。

たとえば、Wikipediaでトピックを調べるためにWebブラウザを立ち上げて(すでに上がっているなら、新しいウィンドウを開いて)、Wikipediaのトップページを表示して、検索キーワードを入力する(Googleバーに直接入力してもいいけれど)、というのはとても面倒くさい。
それより、Dashboardに切り替え、すでに上がっているWikipedia Widgetにキーワードを入力する、という方がはるかに直感的でわかりやすい。
まあ、この例は、Googleバーに入力した方が、Wikipedia以外の辞典も同時に引けて、より便利じゃないか、と反論されるかも知れないが、ここではWikipedia以外のものはかえって邪魔なので見たくない、という立場だとしよう。


ユーザーインタフェースの認知的考察で有名な認知科学者であるドナルド・ノーマンはこう言っている。
「機械はどんどん多機能で複雑になっているが、人間と機械が関わる部分で本質的に重要なのはsimplification(単純化)である。」
スイス・アーミーナイフみたいにいろんなものが一つになっている道具はダメなのである。
よくできた道具のすばらしい点は、見た瞬間にそれが何をするものであるのか理解でき、触った瞬間にそれがその目的のために最適な形状をしていることが実感できることである。

今の時代、そういうものがとても少なくなったと思う。
多機能のものが単機能のものよりよいと盲目的に思っている人たちが結構いるせいじゃないかと思う。
もちろん、一つのことしかできない道具がどんな場合にもよいと言っているのではない。
デジカメにも音楽プレイヤにもなる携帯電話って、すごく便利だと思っている人は少なくないだろう。
しかし、それは携帯電話の持つ通信機能が、デジカメにも音楽プレイヤにもないよりあったほうが都合がよいと思われるものだからである。
たとえば、音楽を聞きたいときにネットからダウンロードでき、写真を撮ったらすぐ友達にメールで送れるというのは、通信機能があることで可能になった機能である。

お互いにたいして依存関係のない機能を一つに集約したからといって、必ずしも便利になるわけではない。
僕は普段、英和辞典と国語辞典をよく使うけれど、それらが一つのシステム(同じ検索ウィンドウ)になっていると切り替えの手間が増えて面倒くさい。
英和辞典を引いた結果から国語辞典を引く場合があるのではないかと思うかも知れないが僕はそんなことは今までしたことがない。
英和辞典と国語辞典は使う状況が異なるので依存関係がほとんどないのである。

機能の豊富さに目を奪われてしまうのは最初のうちだけで、使い込んでいくうちに必要のないことがわかると、その機能は次第に使わなくなっていくだろう。
でも、多機能でも何を使って何を使わないかはユーザーの自由だから、初めから単機能にしてユーザーの自由を奪うことはない、という考え方もあるだろう。
ワープロやメーラーのようなメインタスク用のツールなら、その方がよいかも知れないけれど、サブタスク用のツールはそれではいけないと思う。
サブタスクはその性質上、あまり時間やコストをかけるわけにいかないから、そのためのツールはほとんど前提知識なく使え、習熟の必要があまりないものが望ましい。
何をするためのものかほとんど一目瞭然の単機能ツールがデスクトップ上に整然と並んでいて、ツール(アクセサリウィンドウ)を選ぶことは今何をするかを決めることと同値であるべきである。

実際、Appleの提唱するDashboard Programming Guideには次のようなことが書かれている。
1. Widgetは単機能にすべきである。
その機能が提供する情報だけを一目でわかるように表示すべきである。
2. Widgetは小さめにする。
大きいWidgetは貴重な画面スペースを浪費してしまう。
3. 他のWidgetと区別がつきやすいように特徴的な色を使う。
ただし、コントラストがきつくけばけばした色使いはさける。
4. Widgetの前面には広告を入れない。
広告、ロゴ、コピーライトなどは裏面に表示する。

Webブラウザのような高機能のものはWidgetにはなりえない。
なぜなら、メインタスク的なこと(ブログを書いたり、長めのドキュメントを読んだり)とサブタスク的なこと(辞書を引いたり、RSSフィードでニュース記事の見出しを見たり)が両方できるからだ。
メインタスク用のツールでサブタスクが行えることがまずいのではない。
ただDashboardの思想にはそぐわないのである。

メインタスクとサブタスクを明確に分け、デスクトップを切り替えることで仕事にメリハリをつけるのは、作業の効率を上げるだけでなく記憶の想起にもつながるだろう。
ウィンドウをたくさん開いていてフォーカスをあっちこっち移動していると、ちょっとスクリーンから離れると直前に何をやっていたかわからなくなってしまう。
メインタスクとサブタスクを分けると、思い出すべきはメインタスクだけでよいので、メインタスク用のデスクトップを工夫して仕事の優先度がわかるようにしておけばよい。


XMLやWebのようなインフラのユニバーサリティの話とクライアントアプリケーションが単機能か多機能かという話を混同すべきではない、と言う人がいるかも知れない。

確かにそうだけど、将来はサーバーアプリケーションかクライアントアプリケーションかという区別はもうほとんどなくなると思うし、どこまでがユニバーサルで、どこからがスペシャルか、なんてはっきりした境界線もなくなっていくと思う。
あるサービスがユーザーに届く過程で、段階的にスペシャライズ(あるいはパーソナライズ)されていくようになっていくのではないかと思う。
ユーザーが直接目にするときには、その人に本当に必要な機能や内容に特化されているだろう。

この考えをコンテンツの配信において実現したものが、トランスコーディングと呼ばれる技術である。
トランスコーディングはネット上でコンテンツをさまざまなやり方でユーザーに適したものにする。
同じことはサービスに関しても適用可能である。
XMLやWebのユニバーサリティを十分に活かし、Widgetのようなアプリケーションのシンプルさをある程度自動的に段階的に実現するために、トランスコーディングが有効である。

トランスコーディングについて詳しく知りたい人は、手前味噌だけどこれを読んでくれるとうれしい。

投稿者 nagao : 00:48 | トラックバック

2005年08月24日

Spotlightとオントロジー

経済学者で認知科学者で人工知能研究者のハーバート・サイモン(故人)はこう言っている。
「学問分野は国家と同じように、限定合理性しか持たぬ人間に対して、目標を単純化させ、計算できる形に人々の選択のしかたを変えてしまう必要悪である。」
これは、分類という行為一般に関して言える。

限定合理性というのは、以下のように説明できる。
合理性、つまり「すべての行動は期待効用を最大化するように行われる」(要するに自分にとっていいことが起こる確率が最大になるように行動する)、という性質が、あくまで資源(使える時間やお金やエネルギーなど)によって制限されたものである、というあたりまえの性質のことである。

すべての存在は世界を部分的にしか認知できないのだから、自分が合理的だと思っていても、それは限定合理性に過ぎないのは当然である。

人間の認知的負荷を軽減するために、ものごとを整理したり単純化したりするのはやむを得ないことだと思っているが、それはいいことなのではなく必要悪なのだ。
それは人の考えを硬直化させ、下手をすると間違った方向に誘導したりするからである。

何らかのラベルを付けてものごとを分類することは、短期的に計算を楽にする効果はあるが、その分類に関する文脈や背景がほとんど失われるか、そもそも知らない場合には必ずしも有効ではない、むしろ邪魔だったりする。
メールやファイルをフォルダに分類したときと、その後しばらくして分類の基準や背景を忘れてしまった状況を思い出してみればすぐにわかる。

Mac OS X Tigerに標準で装備された機能の一つであるSpotlightは、検索という手段によって、人間を不毛な分類という行為から解放してくれるものである(Spotlightについて知らない人はぐぐってください)。
これですべての問題が解決したわけではないが(その点についてはいつか述べる)、テクノロジーによって、必要悪だったものが不必要悪(要するにただの悪)に変化する可能性を強く感じる。

ところで、オントロジーにも同じことが言えるのではないだろうか。
オントロジーとは俗っぽい定義をすると、世界の分節化であり体系化である。
その大部分の要素は、いわゆる概念というものの定義(それは複数概念間の関係を含む)である。
一般に、あれとこれは同じもの、という言い方の背後には概念に相当する考えがある。
たとえば、「インターネットって要するにWebのことだよね」、とか、「ブログってオンライン文書データベースと同じじゃん」、なんていう言い方は言葉の定義をしているのではなく(ちなみに定義だとしたら明らかに間違っているが)、それらは同じような概念で捉えられる、と言っているのである。

このような概念を厳密に定義し、むりやり名前をつけて、人間や機械にとって計算できる形にするのが、ここで言うオントロジーというものである。
僕は、これも必要悪の一種だと思っていた。

でも、Spotlightが不毛な分類や整理から人間を解放してくれるなら、同様に、オントロジーの構築と管理という気の遠くなるような作業から人間を解放してやる技術もあり得るのではないかという気がしてくる。

しかし、残念ながら検索だけでは無理だ。
オントロジーは情報を見つけ出すための手段ではなく、推論や推測を機械的に行うための手段だからである。
推論には因果関係(「風が吹くと桶屋が儲かる」みたいなやつ)や依存関係(「貧すれば鈍す」みたいなやつ)のような、ある事象と他の事象の間の何らかの関係が必要であるが、検索だけではその関係を発見することができないからである。

そのようなことを機械的に行う仕組みに学習(正確には機械学習。データマイニングもその一種)というのがある。

さて、検索と学習で「万人が共有できる概念を定義して世界を体系化する」というとてつもない試みから、人間は自由になれるのか。
このあたりのことがわかってきたら論文でも書こうと思う。

投稿者 nagao : 00:01 | コメント (283) | トラックバック

2005年08月23日

会議をコンテンツとする試み

世の中には創造性のかけらもない、つまらない会議がとても多い。
連絡事項だけならメールでやればいいし、合意を求めたいなら長々と会議をする必要なんてなく、時間を限定して議論した上で、多数決でも何でもやればいいのである。
参考となる意見を求めているなら、最初に何にどのような意見が必要なのかリストアップして、メールか紙で配ってくれれば、それなりに何か発言できるのだが、効率を無視した会議は、やるべき当然の準備をせず、ただだらだらと続いていく。
くだらない。実にくだらない。
そんな会議にばかり参加していると、どんどん自分が馬鹿になっていく気がする。

しかし、一方で、新しい考えを見聞きしたり、既存の考えを新しく捉えなおすことができるような有意義な会議もある。
個々人の力を持ち寄ってシナジーを引き起こす会議もあるのである。
そのような会議は、そのときだけでなく、後で思い出してみても、得るものは多いだろう。

よい会議はコンテンツになりうる。
それは、たとえば、座談会の書き起こし文書を読んでみても、単なる解説記事よりも臨場感があって、異なる意見のぶつかりあいなどが読み取れる、等々、立派にコンテンツとして成立していることがわかる。

ちょっと話が違うけれど、Web掲示板「2ちゃんねる」での複数の匿名参加者の投稿を集めた本「電車男」が出版されて、飛ぶように売れている状況は、一つ一つの投稿は取るに足らない雑文でも、ある状況でたくさん集まると、それなりに面白い読み物になるということだろう。
僕はこの本を購入して読もうという気持ちがよくわからないが、(広告業界にとって非常に都合の良い)日本国民総白痴化を着々と進める某テレビ局の制作するドラマの方はつい見てしまっている。
どうでもいいけど、友人を呼ぶときに「○○氏」って呼ぶのは何か気持ち悪いよね(今ほんとにそんな人いるの?)。

閑話休題。

さて、僕のいる研究室では会議をコンテンツとする仕組みについて研究を行っている。
会議といっても正確には研究発表会であり、要するに、研究室のゼミである。
この風景を複数のカメラとマイクで収録し、オンラインで閲覧可能にするのである。

もちろん、会議をコンテンツとする、という試み自体は特に新しいものではない。
そもそも、議事録は会議コンテンツと呼ぶことができるし、オンラインミーティングのログを取れば、それも会議コンテンツとなる。
同様に、テレビ会議の映像と音声を保存しておいて、見直せるようにすれば、立派にコンテンツとすることができる。

では、会議をコンテンツとすることの利点は何だろうか。
それは、繰り返し閲覧(視聴)して、内容をよく理解することができる点、検索や要約等のコンテンツ技術を適用できる点、さらに、テキストマイニング等の技術を使ってコンテンツから何らかの知識を発見できるかも知れない点である。

僕らは、オフラインの(つまり対面式の)会議風景を記録するだけではなくて、できるだけ多くのメタデータを会議中に作成する仕組みを開発し実践している。
この場合のメタデータには、発表者の用いたスライドの内容とそれをスクリーンに表示した時間、発言者のIDとその発言時間、発言間の関係(前の発言を受けているかどうか。受けている場合は、肯定的か否定的か、など)、発言内容に含まれるキーワード、などが含まれる。
このうち、発言内容のキーワードは書記が入力するのだが、それ以外は自動的に取得している。
そのためのデバイスも作った。
それは赤外線信号を発信する札型のデバイスである。
発言者は2種類の札のどちらかを選んで、真上に掲げてから発言を開始するのである(このデバイスの使い勝手は賛否両論ある)。
札から発信された信号はサーバーに伝わり、発言者のIDと発言タイプ、開始時間を記録し、同時に受光器の位置から発言者の位置を調べ、可動式のカメラをその人に向ける。

このメタデータと会議風景の映像と音声によって、かなり効率よく会議内容と状況を再現することができる。
また、議論が活発でうまく会議が進行しているかどうかはメタデータを調べるだけで、だいたい知ることができる。
定量的な評価はまだ困難であるが、メタデータのさまざまな特性を調べることで、その会議のうまくいっている部分とそうでない部分を、ある程度自動的に抽出することができるようになるだろう。

これをうまく使うと、会議からさまざまな知識が獲得できるだろう。
たとえば、ある提案に関する参加者の意見の違いから、その提案の持つ多様な側面が推論されたり、異なる会議で似たような質問が繰り返されたときに、その回答と合わせたFAQが作成されたり、議論が発散した場合は、その元になった発言が何か新しいアイディアを含んでいるかも知れないので、ブレインストーミングのネタとして利用されたりする。
会議は人間活動の中でも特に頭脳労働的側面が強いので、その内容を機械によって利用可能にすることで、人間の創造性を強化できることはほぼ間違いがないだろう。

もちろん、会議メタデータは、会議コンテンツを効率よく参照するためのガイドとしても利用できる。

理想的な会議とは、多様な意見が自発的に出され、参加者がみな創造的で、ある目的に向って着実に前進するものであるだろう。
そんな会議がいつもいつもできるわけではないだろうから、そういうまれにうまくいった会議を何度も参照することによって参加者の会議に対するスキルを向上させることができるだろう。

最近は、うまい会議のためのノウハウ本などがいろいろ出ているが、他人が参加して非常にうまくいったときの会議を参考にするより、自分が参加した会議のうまくいったときとそうでなかったときの比較をして、自分や他の参加者がどういうことをしたときが、よい結果につながったのかを考える方がずっとわかりやすく、また、ためになるだろう。
つまり、自分やよく知っている他人の行為を客観的に吟味する手段が必要なのである。
それは、スポーツと同様である。

8月13日の日経新聞によると、「ある意見の次の発言は直前の発言への反論が多い。ゆえにその意見を通したい場合は、その発言の直後に肯定的なことを続けて発言すればよい」、「周囲の雰囲気が一つの方向へ盛り上がっていると、たとえその流れに否定的な人でもその流れに乗りやすくなる」、「弁当やケーキ、コーヒーなどを飲み食いしているときは心理的に説得されやすくなる。ただし好きなものでなければ効果は薄い。ゆえに、説得したい相手の好物を調べて、会議の休憩中にでも食べられるようにすればよい」のだそうである。

一つめの仮説はちょっと疑わしいが、人は肯定的な意見より否定的な意見を言うことの方が多い、つまり、ほめるよりけなす方が得意、だという、一般的な傾向なのではないだろうか。
また、二つめの仮説は、多くの参加者が賛同している(と思われる)意見に反対するのはコストがかかるため(反対するだけでなく他の参加者を納得させられなければ発言する意味がない)反対意見を述べることを躊躇し、また、会議の流れを阻害することで時間が長引くことを恐れるからではないだろうか。
さらに、三つめの仮説は、人間はおなかがすいていると(特に、糖分が足りないと)いらいらしてくるから、他人の意見につい反対してしまいがちであるが、何か食べているとそうでもない、という、これも人間の一般的な特性なのではないだろうか。

いずれにせよ、こんな仮説を信じて実践していっても、そうそう、うまい会議などできるわけではない。
それより、うまくいった会議の状況とそうでなかった会議の状況を比較して問題点を見い出して、改善していった方がよほど建設的である。
そのためにも会議コンテンツは大いに貢献することだろう。

投稿者 nagao : 00:59 | コメント (204) | トラックバック

2005年08月22日

体験メディアとプライバシー

これは、ブログのおかげで特に顕著になった現象のような気がすることだけど、不特定多数の人が目にするネット上に、きわめて個人的で他人には割とどうでもいいことを日記として書いているのを見るにつけ、人の自己顕示欲の強さを感じている(この文章も似たようなものかも知れないけれど)。

「その日にやったこと」をつらつら書いている人がいて、他人事ながら「この人は何を考えて、こういうものを書いているのだろうか」などと思ったりする。

まあ、それもメッセージだと言うのならそれでもいいのだけど、ならもうすこし背景などを書いて、それなりの物語にでもして欲しいものである(過去の日記から続けて読めば、物語になっているのかも知れないけれど)。

プライバシーを公開することで得られる、ゆるいつながり感みたいなものがうれしい人もいるかも知れない。
とにかく、(一部の)プライバシーのネット開示は、通常のコミュニケーションがどんどんぎこちなくなってきた人間社会を多少なりとも楽しくする効果があるのだろう。

余談であるが、ある大学に非常勤講師として呼ばれた企業の人が講義のため教室に入ったところ、そこにいる学生の誰からも挨拶(「おはようございます」的な簡単なやつ)がなかったことを異常だと思って、大学の担当者に注意した、という話を聞いた。
その結果、多少の改善がなされたそうである。
おそらく、しばらくして元に戻ったと思うけれど。
僕は講義の冒頭で挨拶をするようにしているが、僕が挨拶する前に、学生から自発的に挨拶をされたことは未だかつてない。
その程度の挨拶すらまともにできない人たちにまともなコミュニケーションなどできるはずがない。

閑話休題。

さて、オンライン日記と関連して、人間の体験(の記録)をほぼ自動的にコンピュータに取り込んで、オンラインで検索・閲覧・共有を可能にしようという研究が比較的頻繁に行われるようになってきた。
この仕組みによって生成されるデータを体験メディアあるいは体験コンテンツと呼んでいる。

東大のライフログと呼ばれる研究や、ATRの体験キャプチャと呼ばれる研究は、人間の行動を詳細に記録して、時間や場所による検索を可能にして、自分の記憶の想起や他者の行動分析に使おうとするものである。
環境に埋め込まれたカメラやマイク、また個人が携帯する(あるいは、装着する)カメラやマイクで人間の行動風景を記録するのである。
これらの研究は、いかに詳細に行動記録を取るかということがメインで、それをどう使うかという点で見るべきものがあまりない。

しかし、行動を詳細に記録することで初めて可能になることはいろいろあるだろう。
一番分かりやすい例は「犯罪の防止」である。

「今、私はあなたの顔と声を記録しています。私に危害が加えられた場合は、この映像が自動的に警察に送られるようになっています」って宣言すれば、暴力事件は軽減できるのではないだろうか。
また、環境設置型のカメラに犯罪抑制効果があるのはおそらく間違いないと思う(街中でいつのまにか自分の行動が撮られているのはあまり気分のよいものではないが)。

それはよいとして、もう少しポジティブに役に立つ使い方があるだろう。
その一つが体験をコンテンツとして利用することである。

たとえば、Flickrは写真の共有によって、体験の共有ができる。
それによって、自らの体験にさらなる意味づけをすることができる。

以前にここに書いた、知的な乗り物ATも体験を共有するツールとなる。
ATには、無線サーバー内蔵のカメラが装着されており、映像と音声を配信することができる。
ATは移動しながら、周囲の風景を撮影するだけでなく、ATを降りた人間を自動的に追尾して、その人のやっていることを撮影したりすることもできる。
さらに、面白いことに、ATは人間の行動の記録を撮ると同時に、自らの持つさまざまな文脈情報を一緒に記録するので、時間や速度や位置や方向はもちろん、移動軌跡や人間との距離や周囲の移動体に関する情報まで行動記録に含めることができる。
また、この情報に基づいて、ほぼ同じような行動(移動)を再現できる。
つまり、以前に来たことのある場所かどうか、すぐにわかるだけでなく、そのときに、どういう経路でどの場所にどのくらいの間いてどちらの方角を向いていたか、などを再現できるのである。

体験共有は長い時間を越えて行われることもある。
ある作家がある場所を訪れて何かを感じ小説を書いたその場所に、その作家の死後百年後に訪れて、同じような状況を再現し(もちろん風景は変わっているだろうけど)、同じように感慨にふける、ということが可能になるだろう。
あの有名な作品はここに来たことがきっかけになった、などの豆知識があると、さらに面白さが増すことだろう。

体験コンテンツは、その原体験者がどのような生涯を送り、社会に何をなしたか、によってより多くの価値を持つことになるだろう。

さて、もう一つ考えなければならないことは、もちろん、プライバシーの問題である。

個人の体験記録を他人が閲覧可能にすることは、言うまでもなく、プライバシーの開示である。
しかし、開示する側が、内容や閲覧可能者を制限できるようにすることで、被害や不利益を最小限にすることができるだろう。
これは、Flickrのような写真による体験共有システムと同様である。

しかし、他人の体験記録中にたまたま撮られてしまった人のプライバシーはどうなるのか。
これは、防犯用の環境設置型カメラに撮られてしまった人のプライバシーの扱いとは異なるだろう。
個人が撮影する体験記録は、他人に見せることを想定して記録を撮っているからだ。

僕らは、写真やビデオに撮られた人が、それらのコンテンツがネット上で公開されているかどうかを知るための仕組みを考えている。
その仕組みによって、自分がいつどのカメラで撮られていて、それがどの程度自分のプライバシーを侵害しているかを確認することができる。
その結果、公開を差し止める(あるいは自分の映像や音声にエフェクトをかけて、誰だかわからないようにする)ことができるようになるだろう。
芸能人なんかは、毎日その手のデータをチェックしないといけなくなるかも。
あるいは、大物政治家などが、よからぬ行いをしているところが誰かの体験コンテンツに収められてしまったとして、その撮影者にいろいろと圧力をかけてくるだろうが、もし、その人がジャーナリストを目指しているならば、そんな圧力に屈してはいけない(何かちょっと矛盾したことを書いている気がする。ま、いいか)。

その仕組みのためには、現在のカメラではダメで、ちょっと細工をしなければならないのだけど、盗撮等を防止するためとか何とかもっともらしい理由をつけて、その仕掛けのないカメラは販売できないようにすればよいだろう。

そういえば、ソニーのビデオカメラにNightShotと呼ばれる、近赤外線による暗視装置がついていて、それを使うと白っぽい服が透けて撮影できるとかいう話が昔あった。
この会社は犯罪を助長するのか、と思ったが(当時、ソニーの研究所にいたので、複雑な気分だった)、案の定、このカメラは販売禁止になった(たぶん)。

体験共有とプライバシー保護は表裏一体の問題である。
日記を公開している人は、それを共有することの意義、あるいは、プライバシーを開示することの意義を、ほんのちょっとでよいから考えてみるとよいと思う。

未だにこんな宿題が出されているかどうか知らないが、夏休みの日記を書き忘れた小学生は、宿題を出した教師にこう言えばいいのである。
「もちろん、日記は毎日つけました。でも、これはプライバシーですので、残念ながら先生にお見せすることはできません。」
僕ならそんなまぬけな宿題は出さないけれど。

投稿者 nagao : 00:07 | トラックバック

2005年08月21日

オンライン辞典の未来

僕のいる研究室では、「デジタル認知科学辞典」という辞典を作っている。
「認知科学」っていう分野そのものは、あまり好きじゃないのだが、「認知科学」がその周辺分野(「哲学」や「心理学」や「生理学」や「言語学」や「社会学」や「神経科学」など。「コンピュータサイエンス」や「人工知能」も含む)と密接に結び付いていて、辞典を作ろうとすると、自然にそれら周辺の話題を含むことになるので、ちょっとした雑学辞典になっている点が面白い。
たとえば、心理学用語なんてほとんど知らないから、ただ辞典をながめているだけでも結構勉強になる(雑学辞典という点ではWikipediaもそうなのだけど、あれをながめていてもあまり賢くならない気がする)。

認知科学辞典はまず2002年に書籍として発行されたが、紙の辞典では検索が面倒なので電子化しようという、ごく当然の話になって、そのための具体的な作業を僕が担当することになったのである。
何でそんなことを引き受けたかというと、これをきっかけに新しいオンライン辞典を作ってみたいと思ったからである。

現在のところ、CD-ROM版(これも僕のところで作った)が出版されているが、オンライン版は(一応できているのだけど)まだ公開されていない。

僕は凝り性なので、辞典に誤字や表記の不統一等のミスが一つでもあると、つい全項目見直して修正しようとしてしまうが、これがまた大変根気のいる仕事なのである。
たかだか4000程度の項目数で、辞典の規模としてはあまり大きくないのだか(ちなみに、広辞苑第5版の項目数は23万だそうである)、誤字や数式の間違いや表記のゆれなどを細かくチェックしていると、うんざりするくらい手間がかかる。
だいたい、専門家が書いているわりに、読んでもよくわからない項目が結構ある(でも、さすがに、文章を勝手に直したりはしない)。

言葉は生ものだから、辞典は人間の手によって常に変化していかなければならない。
辞典のような、人手で編集された知識は、自動的に変わっていくことはない。
将来、知識獲得の技術が進んでも、辞典を自動生成することは当分の間はできないだろう。
そもそも、辞典が機械的に作れるのなら、人々が疑問に思った言葉の説明をオンデマンドに生成することが可能になるだろうから、まとまった辞典などは必要なくなってしまうだろう。
しかし、僕はあと100年くらいの間にはそういう時代は来ないと思っている。

歴史書が、さまざまな歴史的事象に対する歴史家の多様な解釈から生まれるように、辞典もさまざまな言葉の意味をその言葉が使われた時代背景を考慮して多面的に解釈した上で作られるわけだから、今のところ人間以外にはとてもできそうにない作業である。

では、この場合、機械がやるべきことは何かというと、僕は、人間が行うべき創作活動を可能な限り支援することだと思っている。
ここで言う人間のやるべき創作活動とは、辞典(の項目)を執筆することである。

なぜ辞典を書くべきかというと、言葉を使うためのけじめみたいなもので、ろくにわかっていない言葉をあいまいなままに使うより、辞典を書く・読むことで言葉に何かはっきりしたものを与えてから使ったほうがよいのではないか、と思うからである。

「言葉を大事に使いなさい。そうすれば、ただ沈黙しているより、多くのことをより正確に伝えられるのだから」というのは、僕の好きな小説の主人公(正確には複数の主人公の一人)のせりふ(一部改変)である。
自分の使う言葉には責任を持って、大事に使うべきなのである。
もちろん、そのために辞典が必須なわけではないが、辞典を書くという行為はそれに貢献すると思う。

人は辞典を読んで、言葉に、よりはっきりした輪郭を与えて、それを使う。
言葉の背景となる文脈を理解して、その時点での言葉のスナップショットを描写するのである。


さて、検索以外に、僕がデジタル認知科学辞典を題材にして実現しようとしていることの一つは、辞典の編集や構造化をオンラインで比較的簡単に行う仕組みである。
これは、インターネットでつながれた多くの人たちの知恵と力を合わせて、言葉に関する知識のコンテンツと体系を、できるだけ少ない労力で作っていけるような仕組みを作ろうということだ。
この仕組みは、当然ながら、認知科学辞典以外のさまざまな辞典に対しても適用可能になるだろう。

これと、いわゆるFolksonomyような民衆パワーによる語彙の体系化との違いがどこにあるかというと、情報を分類・整理するための適当な単語を決めましょうという話ではなくて、用語の持つ文脈を表現可能な範囲で明確にしましょう、という話である。
この場合の用語の文脈には、分野や関連語・同義語、その解説文に含まれる特徴的な言葉、代表的な文献、解説文の執筆者のプロフィールなどが含まれる。

僕らの作っているシステムでは、辞典の項目への加筆修正や、注釈の付与、他の項目へのリンク付けをオンラインでできるようになっている。
さらに、不特定多数の人に内容をレビューしてもらい、説明が不備な部分を指摘してもらったり、新たに説明が必要な項目を挙げてもらったりすることも考えている。
「この人にこの項目を書いてもらいたい」というリクエストが出せるようにもしようと思っている。

やはり、辞典をより有益なものにするためには、その用語が使われる分野の専門家である書き手と、その読み手の間のコミュニケーションは不可欠であろう。

また、辞典は言葉のさまざまな側面を観察するための有益なツールである。
僕らの作っている辞典によって、意味的には似ているが異なる表現がなされている言葉や、言葉としては似ているが意味が異なり誤解されやすいものなどを自動的に発見する仕組みが実現できるだろう。
辞典そのものが、辞典作成を機械的に支援する仕組みになっている、というものにしていきたいと思う。

これからの辞典は、限られた専門家のみによって編纂されるような特別のものではなく、デジタル化された、これまでの辞典を、不特定多数の自発的な努力によって、その時代に合った内容に作り変えていくような、より日常的なものになっていくと思う。

多くの人間が小さな努力を積み重ねて、人類共有の知識を紡ぎ出していく。そんな新しくて大きな流れが生まれることを、僕は期待してやまない。

投稿者 nagao : 04:04 | コメント (9) | トラックバック

2005年08月13日

Semantic Webはここがダメ

2002年にJapan Prizeという賞(みんな知らないでしょう)の受賞記念懇談会とかいうのに呼ばれたときに、受賞者のティム・バーナーズ=リーに会った。
これを読んでいる人で、この人を知らない人はいないと思うけど、一応説明すると、彼はWorld Wide Webの発明者であり、Semantic Webの提唱者である。

そのとき、僕は彼にこう言った(向こうは覚えていないだろうけど)。
「あなたが(Semantic Webで)やろうとしていることは、かつてAI(人工知能)がやろうとしたこととまったく同じだ。結局AIの試みは成功していない。なぜ今回は成功すると思えるのか」

彼の返事はつまらないものだった。
「Semantic WebはAIではない。論理的に整合な知識表現を作ろうというのではない。もっと単純な話で、Webを今より機械が扱いやすいものにするのが目的だ。それに、かつてできなかったことが今はできる。それは、Webにはきわめて多くの貢献者(contributor)が世界中にいるからだ」

僕は続けた。
「だとしたら、Semanticという言葉を使うべきではない。それは人に誤解されやすい(misleading)言葉だからだ。機械が処理できる(machine-processable)ということと、機械が理解できる(machine-understandable)ということを混同させてはいけない。機械の都合に合わせたWebのフレームワークを決めるのは結構だが、人間が作り出すコンテンツの意味を機械が理解して知識とするための仕組みを扱う必要があるだろう。AI研究はそのための重要なヒントになる」

すると彼はこう言った。
「私はコンテンツそのものの問題を扱うつもりはない。あくまで標準的なフォーマットを決めるだけだ。コンテンツ固有の問題は君がやればいい」

僕は言われなくても自分のやるべきことがわかっていたが、何だかとてもがっかりした。
自分にとって新しい発見が何もなかったからだ。
Webがあったって、むずかしい問題は相変わらずむずかしいのであって、機械が処理できるWebであればよいなら、人間にとってわかりやすくする必要なんてないから、専用のスキーマ言語で定義された表かリスト形式のデータを作ってWebに載せていけばよいのである。
しかし、機械的な推論が可能な知識をグローバルに作っていきたい、ということなら話はだいぶ違う。
これは標準フォーマットを決めればよい、ということではないからだ。
1980年代のAI研究が示したことは、ユニバーサルな知識表現など存在しない、ということだ。
つまり、どんな知識を表現するにも適した標準フォーマットなどありはしない。

ところで、最近ではSemantic Web(以下ではくどいのでSWと略す)のコンセプトはかなり矮小化されて受け入れられている気がする。
たとえば、ブログやSNSはRDFベースのRSSやFOAFを使っているので、SWの思想に基づいているとか、SNSで、SWで言うところのWebのtrust(信用性)が実装できるとか、SWで本質的なのはタグやカテゴリーなどのメタ情報である、とか。

それらを否定する気はさらさらないが、その程度のものでよいなら、ますますSemanticなんて言葉を使うのはおかしいと思う。

Semanticという言葉にこだわるのは、僕が自然言語処理の研究者(のはしくれ)だからだ。
コンテンツの意味(semantics)を扱うということは、必然的に人間の言葉の意味を扱うということになる。
自然言語処理は極論すると「人間の言葉の意味を扱うための理論と技術の総体」である。

言葉の意味なんて機械にわかるはずがない、と思う人がいるかも知れない。
しかし、この問題を何とかして乗り越えないと、情報化社会が理想とする世界はほとんど実現できない。

ティム・バーナーズ=リーの提唱するSWのSemanticとは言葉の意味を扱うということではない。
SWがダメな点はまさにそこにある。
SWは、要するにあたりまえのことをあたりまえにやろうとしているだけで、その先に驚くような未来が待っている、というわけではない。
もちろん、あたりまえのことをあたりまえにやることが悪いのではなく、それはそれで重要なことである。
でも、だとしたら、ことさらに「むずかしいことをやろうとしているというポーズ」をとって、人々を煽るようなことを言うべきではないだろう。
もっと淡々と「これこれのことをWebでやりたい人は、このような決まりに従っていきましょう」ということをいろいろ言って、議論を導いていけばよいのである。
そうすれば、「SWって次世代のWebらしいけど、どんなすごい世界が待っているんだろう」とか「SWって要するに何ができるの」とかいう過度な期待や疑問もなくなって、多くの人が冷静に対処できるようになると思う。

いや、SWにもAIの研究者が関わっているし、OWLと呼ばれる、概念の記述形式も議論されているから、ちゃんとコンテンツやデータの意味を扱おうとしているし、Webを賢くするための努力をしている、という人がいるかも知れない。
概念やオントロジーをきちんと定義したいという気持ちはよいけれど、それこそ80年代のAIに何も学んでいないのではないだろうか。

オントロジーなんて大上段に構えなくていいから、まず言葉の意味を考えるところからはじめよう。
言葉の意味は、オントロジーのように抽象度の高い概念を考えるところからはじめるのではないので、着実に前に進めることができる。
WordNetという有名なフリーの辞書があるけれど、ああいうものをちゃんと作っていくことが本当のSemantic Webへの第一歩なんだと思う。

本当のSWにとってRDFやOWL等の言語仕様はまったく本質ではない。
SWの(構成要素の)仕様は今こうなってます、なんてことをビジネストレンドか何かみたいに紹介しているWebサイトはいろいろあるけれど、人々を啓蒙するのが目的なら、もう少し本質的なことを書いて、一体何に目を向けるべきなのか示してあげるべきなのではないだろうか。

ちなみに、任意のコンテンツと言葉の意味をつなぐ仕組みに、意味的アノテーション(特に、言語的アノテーション)というのがあって、産業技術総合研究所の橋田浩一さんが中心になってGDA (Global Document Annotation)というメタ情報の記述形式を提案している。
僕もこれに基づくオーサリングツールを作ったり、その応用として要約、翻訳、言い換えなどのシステムを作ったりしている。

GDAがOWL等と本質的に違う点は、言葉(正確には文書)の意味をまじめに記述しようとしている点である。
言葉の意味を扱うということはとても地道で迂遠なことである。
しかし、いずれはやらなければならないことであるのは、おそらく間違いがないだろう。

会社を辞めて大学に来てから、しばらく元気が出なかった(教育者というのは一般に報われない職業です)が、これを書いたおかげで、自分のやるべきことを再発見したような気がするので、再び、言葉の意味を扱う試みに自分の時間を費やしていきたいと思う。

WikipediaやWiktionaryのような、オンライン百科事典や辞書に関するアクティビティはとても面白いのだが、このような仕組みの延長線上に本当のSWがあるのではない。
辞典や辞書が、単独のコンテンツとして読むだけのものであるなら特に問題はないのだが、ある別の文脈における言葉の意味を知るために参考にするものであるなら(普通はそういう使い方をするだろう)、その文脈を考慮しなければならない。

言葉は生来的に多義なものであり、その使用文脈を同時に考慮しないと意味を正しく特定できない。
そのような文脈を考慮した上で言葉と辞典の説明を結び付ける一般的なやり方は存在しない。

しかし、それが不可能だと言いたいのではない。
言葉の意味を特定できる文脈を機械に教えてやる仕組みとそれに基づいて機械が文脈と意味との関連付けを学習する仕組みを実現すればよいのである。

こういうことを書いていると、また誰かに、「それはお前がやればいい」とか言われそうなので、やはり自分で作ってみせるしかないと思っている。

それにしても、みんな、見た目の面白そうなこととか、すぐに使えそうなこと、あるいは標準化活動みたいな自分の名前はアピールできるかもしれないけれど創造性のかけらも感じられないような仕事とかに魅かれて、すごく地味だけど本質的なこと(主に研究活動)に積極的に関わろうとする人がとても少ない気がする。
それに、自然言語処理の研究はかなり以前から行われているけれど、この何年かは、言語コーパスとか統計的処理とかあたりまえにできることばかりやっていて、なんだかとてもセンスが悪い気がする。

Webを今のようにしたのは、アメリカの研究者や技術者の力が大きかったけれど、本当のSWの実現にイニシアティブを発揮するのはアメリカ人とは限らない。
だからアメリカの動向ばかりうかがっていないで(サーベイするのはもちろん重要だけど)、日本にも、自分から周囲の人たちによい指針や影響を与えられるような人が必要だろう(ちなみに、僕はそんな器ではないですよ)。

投稿者 nagao : 21:44 | コメント (264) | トラックバック

2005年08月03日

ATという名の乗り物

AT8号機

僕らの世代では、ATと言えば無論「ボトムズ」である(ボトムズについて知らない人はぐぐってください)。
あの作品の中ではATは兵器(パワードスーツみたいなもの)であるが、僕はあれを未来の個人用の乗り物として捉えていた。
確かに2足歩行の乗り物なんて効率悪いし、乗り心地悪そうだし、そもそも必然性があまりないのだけど(どこぞの自動車メーカーさんごめんなさい)、ボトムズのATは足の裏にグラインドホイールと呼ばれる小型の車輪を装備し、ローラーダッシュと呼ばれる高速移動ができる。
また、足があることを最大限に活用した関節クッションの仕組みで、高いところから落下して着地したときの衝撃を吸収することができる(このときの姿勢を降着姿勢というらしい)。
これはものすごく合理的な仕組みだと、子供心に思ったものである。
ちなみに、頭部についた3種類のカメラを切り替えたり、首を回すように、そのカメラを左右に回転移動させたりするのはちょっとナンセンスだと思う。
やはり複数のカメラを同時に全方向を見渡せるように配置して作動させるべきでしょう。

現在、僕のいる大学の研究室では、ATと呼ばれる個人用の乗り物を作っている(写真は最新のAT8号機)。
当然ながら、ボトムズのAT (Armored Trooper)ではない。
僕らのATは、Attentive Townvehicleの略称である。
Attentiveとは「注意を向ける」とか「気配りをする」とか、「気の利いた」とかいう意味である。
Townvehicleは、Townwear(街着)からヒントを得た造語である。
「街車」なんて訳してしまうと何か変だけど、タウンビークルという言葉には割と好きな響きがある。

僕らのATはセグウェイのように立って乗ったり、電動車椅子のように座って乗ったりできる変形可能な乗り物である。
ATはセグウェイの二番煎じのように言われることもあるが、スタンドアローンの情報マシンに過ぎなかったPCをネットワークマシンにしたような、あるいは、テープやディスクという音楽記録メディアのポータブル再生マシンに過ぎなかったウォークマンを物理的なメディアから自由にして音楽プレイヤーの概念を変えたiPodにしたような、そのくらいの革命的な変化をセグウェイにもたらしたもの、だと確信している(でもまだ製品になっていないのでインパクトはあまりありませんが)。

僕は乗り物はすべてネットワーク化されるべきだと思っている。
それは、人間の安全を守るために不可欠な機能である。
人間は目に見える範囲のことはかなりよく認識できる(ゆえに、いわゆるコンピュータビジョンは人間に勝てない)。
しかし、目に見えない範囲の認識能力は極端に低い(だから、死角から近づいてきた人からの攻撃をうまくかわせない)。

情報通信機能は人間の認識能力を拡張することができる。
だから、乗り物はお互いの存在を知らせて、人間に注意を促すためにネットワークを構成するべきなのである。
通信によって、お互いの位置・速度・進行方向・移動履歴・目的地などを早めに教え合うことができれば、衝突や接触を回避できるだけでなく、目に見えないところの状況を人間に知らせる有力な手段になる。
搭乗者が知り合い同士の場合は、名前やメッセージを送り合うのもよいだろう。
そんなことは、近い将来、ケータイ(あるいはウェアラブルマシン)でできるようになると思うかも知れないが、機械が通信によって獲得した情報のうち、特に緊急性が高いものを人間に知らせる最も効果的な方法は、物理的な行動に直接的に反映させることだと思う。
そのための手段として、移動の粒度が細かい、小型で個人用の乗り物ほど都合のよいものはないだろう。
マシンに「危ないから止まれ」と言われても、人間の反応が遅れて間に合わない可能性があるけれど、「危ないから止まるよ」って言われつつ自動で止まったとしたら(人間に伝わる加速度を考慮して止まるべきだけど)、危険を回避できる可能性はより高くなるだろう。
利点はそれだけではないけれど、とにかく、人間に関わる暗黙的な情報を物理的な力に変換するためのマシンは非常に大きなポテンシャルを秘めていると思う(悪用されるととてもやっかいなことは間違いがないが)。

もう一つ、ATに込めた僕の期待には本当のバリアフリーの実現がある。
バリアフリーという言葉はよく耳にする。
建物の入り口にスロープを設けたとか、エレベータを設置したとか。
でも、通路の脇に車輪がはまりやすい細い溝があったり、(普通に歩いているとほとんど気にならない)ちょっとした段差がたくさんあったり、本気でバリアフリーに取り組んでいるのか、と言いたい場所がたくさんある。
要するに、設計者は車椅子に乗って建物内を動き回ったことがないのであろう。
だから、バリアフリーに関して本質的に何を考慮して設計するべきなのかよくわかっていない。

ATは乗り物であると同時に情報マシンだから、移動の安全性を向上させるのと同時に、ネットワークに常に接続することで可能なサービスがいろいろ提供できる。
ゆえに、移動中にできることが増え、その結果、多くの人がそれで移動するような状況になる。
そうなると、これまでのバリアフリーではまだまだ不備がたくさんあることが徐々にわかってくるだろう。
多くの人にとって不備があることがわかると、都市インフラを早急に改善しないと経済的に不利な状況になる可能性が出てくる。
結果、都市全体としてバリアフリーにならざるを得ない、というシナリオを考えている。

もちろん、これがご都合主義的で稚拙なシナリオであることはよくわかっている。
だけど、たとえば、車椅子のユーザーがマイノリティでいるうちは、バリアフリーに関する本質的なインフラの改善など望むべくもないような気がするのである。
だからといって、全員が車椅子に乗れ、などというのはナンセンスである。
その必然性がないからである。
ATはマイノリティにもマジョリティにも有用な機能(認知的能力の拡張と安全性の向上、そして状況に依存した情報サービス)を実現するユニバーサルなマシンである。
もちろん、ユーザーの特性に応じて異なる物理的形態をとり、最適なユーザーインタフェースを装備できるように作るべきである。
まだ必然性に乏しいかも知れないけれど、コンテンツやサービスが増えてくれば、今の時点での想像をはるかに超えた便利なマシンになっていくだろう。

ATはまだ実用的ではない。
そもそも、それに乗って街中を走れないし(車椅子と同じスピードだから歩行者扱いになると思うのだけど、まだ試していない)、乗ったままお店にも入れないし(ドアから入れないという意味ではない)、電車にも乗れない。
だから、僕がどんなに説明しても、多くの人にはATが日常生活に入ってくる姿がイメージしにくいだろう。
しかし、ネットワーク化された個人用の小型の乗り物によって、現状では解決が困難なさまざまな問題に、適切に対処できるようになると思う。
これは、高齢者や障害者だけでなく、一般の人にとっての問題(たとえば、交通安全、健康管理、記憶の補助、時間の節約など)である。

僕は、エージェントとコンテンツを含む、気の利いた情報システムの構築と、人と機械が影響を及ぼしあってお互いに賢くなっていく仕組みの実現をライフワークとしているが、情報と物理世界のよりよい関わりについても、同様に自分が継続的に追求していくべきテーマだと思っている。
僕にとって、ATとはそれらの要素がバランスよくミックスされた、とても興味深いテーマなのである。

投稿者 nagao : 20:06 | コメント (62) | トラックバック