« 2006年05月 | メイン | 2006年09月 »

2006年06月26日

ビデオ「研究室紹介」の紹介

ちょっと内容的に古くなってしまった感がありますが、僕のいる研究室の紹介ビデオを紹介します。 1年以上前に撮影されたものなので、いくつか現状とは異なる内容もあります。 それらについても指摘しています。

このビデオは、名古屋大学 情報科学研究科 長尾研究室の紹介ビデオです。
2005年4月頃に撮影されたものです。

00:18 ~ 00:20
冒頭で僕がちょっと挨拶をしています。
撮影中何回かNGを出してしまいました^^;;
所属は、名古屋大学 大学院情報科学研究科 メディア科学専攻になっています。
もちろん、これは正しいのですが、僕の本務は情報メディア教育センター 情報メディア基礎系というところです。
大学院情報科学研究科は兼務です。
まあ、どうでもいい話ですが。

01:04 ~ 01:06
最初に、ディスカッションマイニングという研究について説明しています。
ディスカッションマイニングという名前は、僕が考案したものですが、実は、IBMの研究所にいた頃に一度この名前を使っています。
そのときは、主にメーリングリストなどのオンラインディスカッションから何らかの知識を発見するという研究でした。
今回は、対面式で発表形式のミーティングの情報を詳細に記録して、やはり何らかの知識を発見するというテーマになっています。
メール等に比べるとはるかにむずかしい問題になっていますが、ちょっとした工夫をいろいろ取り入れて、何とか情報的に扱える問題にしています。

02:12 ~ 02:14
研究室内のオープンスペースであると同時にミーティングスペースである空間を最大限に活用してデータの表示と収集を行っています。
このビデオでは、カメラを参加者用に2台、スクリーン用に1台使っていることになっていますが、現在では発表者以外の参加者用に1台、発表者用に1台(それ以前はこの区別がなかった)、スクリーン用に2台(内1台はレーザーポインタの解析用)用いています。
マイクは、360度の指向性(要するに無指向性)を持つタイプを2台(1台は予備)使っています。

02:38 ~ 02:40
僕たちのミーティングの最大の特徴は、この札(議論札と呼ばれています)を使っていることでしょう。
このときは3枚の札がありましたが、現在では2枚です。
また、RGB3色のボタンを持つボタンデバイス(d-Buttonと呼ばれています)も併用しています。
これらの入力デバイスは、ミーティング中に、自動解析が困難なメタ情報(誰がいつどんな種類の発言をしたか。発言者以外の参加者はそれに同意したか。多くの人が重要だと思った発言はどれか。など)を取得するために用いられます。

04:16 ~ 04:18
この研究室で特徴的なもう一つの研究テーマは、この個人用知的移動体(personal intelligent vehicle)というものです。
個人用に特化され、情報技術で強化された乗り物を一から作ってみようと思ったのです。
試行錯誤を繰り返しながら8台の試作機を設計・開発しました(ただし、現在動かせるのは3台のみ)。
やはり、僕らの世代には、搭乗型のメカに対する何らかの憧れがありますね。

04:38 ~ 04:40
僕はこの移動体にAT (Attentive Townvehicle)という名前をつけました。
タウンビークルとは街中で気軽に乗れる乗り物という意味の造語です。
アテンティブというのは、何らかの対象に注意を払って行動する、つまり気配りをする、という意味です。
つまり、人間に気配りをするカジュアルな乗り物という意味の名前です。
ATの特長は、搭乗者である人間や周囲の環境への適応、さらに他のATとの協調を目指した機能があるということです。
具体的には、物理的環境をセンシングして減速や停止等の自動制御を行う機能、搭乗者を識別し、搭乗時には操縦パラメータの自動設定、降車時には人間の後を追尾する機能(ヒューマントレーサと呼ばれています)などがあります。
また、Webを使った遠隔操作機能、AT間で制御情報を送り合って、協調的に動作する機能もあります。
ちなみに、Javaアプレットを使ったATのコンソール画面は大幅に変更されています。
さらに、映像や位置情報などを暗黙的に記録して、人間の行動記録を自動的に作成する機能も実現されています。

05:24 ~ 05:26
この研究室の3つ目の重要な研究テーマとして、コンテンツへのアノテーションとその応用というものがあります。
これは僕が以前にSony CSLやIBMで行っていた研究がベースになっています。
研究室の学生たちによって、さらなる発展が遂げられつつあるのは喜ばしいことだと思っています。

05:43 ~ 05:45
これはSynvieの原型であるオンラインビデオアノテーションシステムです。
Synvieより複雑なアノテーションを作成できます。
いわゆるソーシャルタギングをより高機能にしたようなものです。
でも、結構面倒なのでユーザーが敬遠するだろうということで、Synvieではアノテーション機能が大幅に簡略化されました。

06:51 ~ 06:53
音楽へのアノテーションも重要なテーマの一つです。
楽譜へのアノテーションは、教育目的にも使えますし、楽曲の検索や再構成にも応用できます。
また、音楽アノテーションを利用した、ユーザーに適合したプレイリストの生成に関する研究も行われています。

07:59 ~ 08:01
最後まで見ていただいてどうもありがとうございます(このブログからビデオを見た人は、ビデオの一部しか見ていない人が多いとは思いますけど)。
研究室WebサイトのURLは、以下の通りです。
http://www.nagao.nuie.nagoya-u.ac.jp/

Read : 長尾研究室紹介ビデオ

投稿者 nagao : 22:44 | トラックバック

2006年06月25日

ビデオ「Web2.0時代のビデオコンテンツ」について(後編)

前回のエントリーの続きのビデオブログエントリーです。 前回同様サムネイル画像にはほとんど情報がありませんので、画像をクリックしてビデオを見ていただけるとうれしいです。

このビデオは、Synvieの特長と機能、さらに実証実験の内容とその後の展開について述べています。
われながら、いまいち滑舌(かつぜつ)がよくないですが、映像を見ながら聞けばだいたい何を言っているのかわかると思います。

00:12 ~ 00:14
Synvieはビデオコンテンツを共有・配信するだけでなく、ビデオにさまざまなアノテーションを付与するための仕組みです。
それによって、ビデオを中心としたユーザー間のコミュニケーションが活性化されると考えています。
それは、口コミによってビデオのオーディエンスを低いコストで広く集めることに貢献すると思います。

01:24 ~ 01:26
Synvieはビデオをブログのようにします。
それはまず、ビデオ全体あるいはその任意のシーンに対して、以下の3つの機能を持たせることです。
1.パーマリンクを設定できること。
2.コメントや属性などを付与できること。
3.トラックバック(被引用リンク)を付与できること。
また、ビデオ全体に対して、以下の機能を持たせることです。
4.RSS(あるいは、XML Feed。つまり更新・追加情報を含むメタデータ)を生成・配信できること。

02:34 ~ 02:36
Synvieの機能について述べています。
基本的にSynvieはビデオ共有システムなので、ユーザーからのビデオ投稿を受け付け、それを管理・配信し、アクセス解析をすることができます。

04:00 ~ 04:02
さらに重要な機能として、ビデオを中心としたコミュニケーション機能があります。
それは、具体的には次のものです。
1.ビデオの視聴中にユーザーが、シーンに対するツッコミ(ショートコメント)を書くと、その人のニックネーム(ユーザーによって登録されたもの)とツッコミの内容を、該当するシーンの視聴時に表示する機能。
2.シーンのイメージ内の任意の領域に対して、同様にツッコミコメントを書いて共有する機能。
3.ツッコミやチェック(コメントなしの単なるマーキング)に基づいてブログエントリーを書いてビデオとリンクする機能。

06:04 ~ 06:06
今回行っている実証実験について説明しています。
最も重要なのは十分に多くのビデオアノテーションが収集できることですが、そのためには、ビデオコンテンツが気軽に投稿され、それについてのブログが書かれるという習慣がそれなりに浸透することが重要です。

08:33 ~ 08:35
実証実験がある程度うまくいった場合のその後の展開についての話です。
まず、ビデオを効率よく検索するための仕組みを実装して公開します。
また、ビデオブログをさらに作成しやすくするためのツールも開発して提供します。
さらに、この実証実験サービスの結果に基づいて、次のような新しいビデオの活用法を実現したいと思っています。
それは、意味的内容を考慮した、シーン単位のピンポイントな検索、そして、意味的な関連度に基づくビデオの自動編集や合成です。

Read : Synvie実証実験に向けて ~ Web2.0時代のビデオコンテンツ ~ その2

投稿者 nagao : 22:23 | コメント (2) | トラックバック

2006年06月24日

ビデオ「Web2.0時代のビデオコンテンツ」について(前編)

さっそくシンビィ(前回のエントリーを参照)を使ったビデオブログのエントリーを書いてみました。 しかし、サムネイル画像にはほとんど情報がありません。できれば、ビデオもご覧ください(サムネイル画像をクリックするとビデオのページに移動します)。

これは、Synvieの一般公開にあたって、その思想的背景にあるWeb2.0というコンセプトに関連して、いろいろなところで言われている話のまとめと僕なりの考えを述べているビデオです。

00:24 ~ 00:26
CGM (Consumer Generated Media)と呼ばれるようになった、一般の人が作って公開しているコンテンツの重要性が高まっているという話です。
これは結構いろいろな人が指摘しているので、いまさら僕が偉そうに述べることではありませんが。。。

02:40 ~ 02:42
体験をコンテンツにして共有することは本来誰にでもできることであり、まさにそういうコンテンツが今以上に高い価値を持つことになるだろうという話です。
プライバシーとトラストに関しても少し触れています。

04:44 ~ 04:46
Synvieに限らず、僕がアノテーションという研究の文脈でよく述べていることですが、多くの人の少しずつの貢献の積み重ねによって、自動処理にも適した知識の総体をWeb上に作り上げていくことができるという話です。

07:08 ~ 07:10
フォークソノミーの先にあるものとして、フォークセマンティクスという言葉を考えてみました。
そのためのアプローチに意味的アノテーションというものがあります。
これは集合知をさらに高度にして、機械にも利用可能な知識にするために非常に重要なものだと考えています。

08:41 ~ 08:43
多少我田引水的な主張を交えながらWebテクノロジーの未来を概観しています。
コンテンツへの意味的アノテーションによって、言葉の意味の自動処理を目指そうという話をしています。
また、マッシュアップの先にあるものとして、コンテンツやサービスの意味的内容を考慮した統合という話もしています。
これは、最近話題になり始めたセマンティックWebサービスと似ている話かも知れません。

10:49 ~ 10:51
コンテンツやサービスをユーザーに適合するものに自動的に変換するためのトランスコーディングという技術と、その精度を実用レベルに上げていくためにコンテンツに意味的アノテーション(およびその他のメタ情報)を加えて知的コンテンツとする技術が重要だという話をしています。

Read : Synvie実証実験に向けて ~ Web2.0時代のビデオコンテンツ ~ その1

投稿者 nagao : 21:00 | コメント (45) | トラックバック

2006年06月21日

ビデオブログの新しいサービスを始めました

僕のいる研究室の学生が中心になって作ったSynvie(シンビィ)という名前のシステムがようやく公開可能になりましたので、ビデオの共有とビデオブログのサービスを開始しました。
この名前は、syn* of movieに由来します。
syn*にはsyndicationやsynthesis(動画の配信や合成)などが当てはまります。
また、日本語の審美(美しいものを見分けること)にもかけているそうです。

このシステムを試してみたい方はここからお入りください。
大学の一研究室がやっているので、多分に実験的な要素が強いですが、もしかしてたくさんのユーザーが参加してくれるようになったら、どこかの会社と提携してサービスを続けていきたいと思います。

ビデオブログ、というかビデオ共有サービスはすでにいろいろ存在します。
たとえば、YouTubeのようにいつのまにかメジャーになったサービスもありますから、いまさら何をやろうというのか、というご意見がありましたらそれはもっともですし、僕も「あえてすでにいろいろな人がやっていることをちょっと形を変えてやる」というのは研究者としてどうなのか、とは思います。

では、なぜやるのかと言いますと、ビデオ共有やビデオブログの先にあるものを見てみたいと思うからです。
そのためには、ビデオをWeb上に置いて(ビデオ全体だけでなく任意のシーンを)直接的に参照可能にして、ブログを書いて紹介する、ということがあたりまえになって欲しいのです。
ブログに書いてある内容がビデオのどの部分を参照しているかがわかりやすくなっていると、読む方にも書く方にも都合がよいでしょう。

そういうことがあたりまえにできている状態ならば、ビデオを口コミで宣伝したり、ピンポイントにシーンを検索したりするのが今よりずっと簡単になるでしょう。

CNET Japanの最近の記事「ビデオブログ「ブイログ」、目指すは映像の大衆化」でも、ビデオブログの話題が取り上げられています。
この記事で言うビデオブログは、主にビデオ(プレイヤー)をブログエントリーに埋め込むタイプのものですが、僕たちのはそうではありません。
ブログ上に表示されるのは、ブログで引用されているシーンの(リンク付き)サムネイル画像で、ビデオそのものはシンビィのサイトで視聴するようになっています。

それは、シンビィがビデオを中心にしてコミュニケーションを行う広場であるからです。
ビデオを引用しているブログへのコメントと、ビデオそのものへのコメントは区別して扱うべきだと思います。
そのため、ブログへのコメントは各ブログサーバーで、ビデオへのコメントはシンビィで管理します。
つまり、ブログからビデオへ、ビデオからブログへと行ったり来たりできるようにすることによって、コミュニケーションの機会と多様性を拡大していけるとよいと思っています。


ビデオコンテンツの重要性は、これからさらに高くなっていくと思われます。
でも、だからと言って、テキストコンテンツの重要性が下がるわけではなく、人間のアテンションをビデオコンテンツの任意の要素に適切にナビゲートするという新たな役割も担うことになるでしょう。
僕は、今回オープンになったこのシステムによって、ビデオに限らず非テキストコンテンツの可能性が大きく拓かれると思っています。


以前のエントリー「ビデオブログでできること」を書いたときに僕が考えていたことと、実際にサービスを始める段階で実現したことの間には多少のずれがあります。
僕はビデオをきっかけにブログを書くということを主体に考えていましたので、ユーザーがまずビデオを見てコメントを書きたいシーンにマーキングをしておいて、その人のブログ編集ページ(あるいはブログエディタ)を呼び出して、マーキングしたシーンへのリンクやサムネイル画像を取り込んで、エントリーの内容を書くという仕組みにするのがよいと思っていました。
しかし、それをやるには、ビデオ視聴とマーキングのサイトを立ち上げるだけでなく、さまざまなブログツール向けにプラグインソフトを作らなければなりません。
まあ、やってやれないことはないと思いますが、ちょっとオーバーヘッドが大きいので、とりあえず今回は、ブログエントリーの元になるHTMLソースをシンビィが生成して、それを自分のブログに貼り付けるという、比較的原始的なやり方を採用しました。

そのときに、シンビィのロゴイメージをブログエントリーの最後に貼り付けていただきたいと思います(システムの生成するHTMLをそのままコピペしていただければ結構です)。
このロゴイメージは、ビデオについて書かれたブログの存在をシンビィが知るために利用されます。
これは、ビデオの内容を解析して利用するときに、ブログの内容を参考にしようと思っているためです。
もちろん、このように自分のブログを自動的にウォッチされるのはうれしくないと思われる方は、ロゴの表示に関するHTMLタグを削除していただければ結構です(その部分にはシンビィからのコメントがついているのですぐにわかります)。

もし、ブログから引用元のビデオに誘導するだけでなく、そのビデオから自分のブログに逆誘導して欲しいと思われる方は、そのロゴイメージを貼っておいていただきたいと思います。
これによって、ビデオシーンからブログエントリーの引用箇所へのトラックバックが自動生成されます(もちろん、自動でトラックバックリンクが張られるのをブログの著者が拒否することもできます)。


さて、僕たちのビデオブログはビデオとブログを密に結び付ける仕組みですが、それによってコンテンツの新しいネットワークが構成されるようになります。
そのネットワークは、引用に基づく双方向のリンクによって構成されます。
引用に基づくリンクは、一般のハイパーリンクに比べて、リンクの両端のコンテンツ間の高い関連性を表していると思われます。
それをうまく利用すれば、かなり精度の高いビデオ(シーン)検索が実現できるでしょう。

今のところ、シンビィにはまだあまり面白いコンテンツが掲載されていませんが、今後はケーブルテレビ等のコンテンツホルダーと提携したり、大学の講義コンテンツをアップするなどして、少しずつ充実させていきたいと思います。
また、みなさんからのビデオ投稿も受け付けています。
是非、ビデオを撮ってシンビィで共有して、その内容に関してブログで思う存分語ってみてはいかがでしょうか。


ところで、僕たちのビデオブログのサービスは、可能な限り口コミで広めていきたいと思っています。
そのため、このブログに限らず、さまざまなブログサービス上で、シンビィを使ったビデオブログエントリーを公開していきたいと思います。
これを読んでいる方でこの試みが面白いと思われた方は、是非シンビィにログインして(今はさしあたって、はてなのIDを利用しています。将来はYahoo!などのIDも使えるようにしたいと思います)、ビデオを投稿したりコメントやブログを書いたりしていただきたいと思います。

投稿者 nagao : 11:28 | トラックバック

2006年06月11日

コンテンツよ永遠なれ(後編)

僕のブログによく出てくる言葉にアノテーションというものがある。
アノテーションという言葉は、注釈とか補足情報などと言い換えられることもあるが、僕はより広い意味で用いている。
コンテンツ(の要素あるいは全体)に構造(および属性)や解釈や評価を関連付けること、あるいは関連付けられた情報一般(メタコンテンツとも呼ばれる)である。
メタデータという言葉の方が一般的であるが、アノテーションには人間がその作成に積極的に関与するというニュアンスを込めている(ゆえに、全自動アノテーションというのはあり得ない)。
アノテーションをこのように定義したのは僕が最初だったと思う(たぶん)。
それ以前は、アノテーションは割と狭い意味で捉えられていた。
もちろん、Webコンテンツへのアノテーション付与という話はかなり以前からあり、主にテキストコンテンツにコメントやリンクや属性情報を追加するものだった。

Webコンテンツへのアノテーションの実現法の最も簡単なものは、HTMLのMETAタグを用いる方法で、メタ情報がコンテンツに埋め込まれたものである。
しかし、それだとコンテンツの制作者にしかメタ情報を編集できないので、メタ情報とコンテンツを分離して扱う必要が出てくる。
ちなみに、僕は一般のリンク情報もすべてコンテンツと分離して扱うべきだと思っている。

そのような、コンテンツに埋め込まれていないアノテーションを、外部(external)アノテーションと呼ぶ。

外部アノテーションに関する未解決の問題の一つに、オーファン(orphan:みなしご)アノテーションというのがある。
これは、アノテーションの指し先であるコンテンツ(あるいはその要素)が削除や編集されること(URLの変更も含む)によって、何のどの部分へのアノテーションなのかわからなくなってしまうことである。

この問題を根本的に解決する方法は、コンテンツの永続化以外にはない。

そして、Web上のすべてのコンテンツが永続化されれば、任意のコンテンツの任意の部分に関するアノテーション(さらにアノテーションに対するアノテーション)も永続化することができる。
そして、アノテーションを用いてコンテンツを適切に変換することができる。

そのための仕組みに、僕のいる研究室で研究開発しているAnnphony(アンフォニー)とSemCode(セムコード)がある。

アンフォニーはRDF(Resource Description Framework)の仕組みを拡張して実装したもので、コンテンツの要素をポイントする一般的なフレームワーク(Element Pointer)と、コンテンツ(の要素)の集合を主語として記述するためにRDFのシンタックスを拡張したもの、さらに、アノテーションを永続化して固有リンクを付け、それへのアノテーション(メタアノテーションと呼ばれる)を同様に記述できるようにした仕組み、アノテーションスキーマを共有し再利用を容易にする仕組みなどを含んでいる。

アンフォニーと似たシステムにSoya(ソーヤ)というものもある。
これは僕がプロジェクトマネージャをやっているIPA未踏ソフトウェア創造事業の採択者が中心になって開発しているものである。
このシステムの特徴は、大量のRDFデータを用いた検索が可能な点である。

また、セムコードは僕のライフワークの一つでもあり、アノテーションに基づいてコンテンツを自在に変換(トランスコード)するための拡張可能なシステムである。

セムコードの運用上の特徴の一つは、プロキシサーバーを用いるという点である。
ちょっと前はAkamaiのWebキャッシュなどのプロキシサーバーがビジネスになっていたが、今はどうだろう。

僕はプロキシサーバーがWebサービスの一翼を担い、コンテンツを選択すると適切なプロキシが自動的に選ばれる、という仕組みができることを予測していた。
その仕組みをWebブラウザが備えていると都合がよいので、IEなどが対応してくれるのではないかと考えていた(僕らは新しいブラウザやプラグインを作る予定はない)。
しかし、現在に至るまで、そのような動きにはなっていない。
未来の予測は難しいと痛感する次第である。

しかし、それでもセムコードの研究をやめるわけにはいかない。
それがWeb上でコンテンツを柔軟に拡張する有力な手段であると考えているからである。


プロキシサーバーをWebのアプリケーション開発の重要なプラットフォームと認識していた人は僕の他にも何人かいる。

たとえば、Novell社のドリュー・メージャーという人はこう言っている。

プロキシをインターネットにおける開発用の新しいプラットフォームとして考えるのは、多くの点で大胆な行動と言え、我々は気軽にそうしようとは考えていない。
インテリジェンスは一端にだけ存在すべきであると主張し、それに反対している開発者もいる。
しかし、利点をよく考えてみると、優れたプロキシ・アーキテクチャの価値に気付くはずである。
そのフレームワークが論評の段階を過ぎ、どこか革新的な新しいアプリケーションが登場すると、プロキシ・サービスはインターネット開発における次の偉大なる飛躍になる。

(「ソフトウェアの未来」(翔泳社 2001)より)

また、この分野で重要な仕事をした人たちにIBMアルマデン研究所のポール・マグリオの率いるグループがある。
僕は彼らと何度か会ったことがあり、彼らの開発したシステム(WBI: Web Intermediaries)をセムコードの実装基盤としていた(ちなみに、WBIのロゴはIBMのロゴを180度回転させたものだそうである)。
マグリオは次のように言っている。

従来のWebプログラミングでは、コンテンツの最終形態をサーバで生成することに焦点を当てている。
「仲介人(intermediary)」は、サーバ~クライアント間を流れる情報に複数のプログラムから処理を実行できるようにすることによって、シングルポイントの制御モデルを切り開く。
情報はこれまでの何年間も、ルータおよびファイアウォールをそのまま通過してきた。
現在では、分散キャッシュおよびコンテンツ適合エンジンが、情報をインテリジェントに処理し始めている。
近い将来は、あらゆる種類の「仲介人」がソース情報とユーザの間の優れたパイプとなり、オンライン・コンテンツを大幅に強化することになる。
Web「仲介人」サービスの例は、オンライン・ショッピングでの価格比較サービス、航空券予約窓口、ニュース集約、プライバシ・マネージャ、Webページ注釈サービスなど、すでにたくさん存在している。
マシンで判読できる形式で情報を配信するコンテンツ・プロバイダは、これからますます増える。
そのため「仲介人」は、ターゲット・ユーザに代わって、目的のコンテンツをたやすく探し出せる。
それに基づいて、複数の仲介人が同一の情報に対してさまざまなルートを提供し、さまざまな人々、状況に合わせて情報をカスタマイズするようになる。
将来、アプリケーションを設計する場合、および情報にアクセスする場合は、情報の通り道に沿って配置された複数の高度な「仲介人」の存在を頼りにすることになるだろう。

(「ソフトウェアの未来」(翔泳社 2001)より)

この意見には僕も同感なのだけど、現時点では彼らの予測したような状況には至っていない。
もちろん、一部では「仲介人」が重要な役割を果たしているかも知れないが、Web全体に影響を与えるようなムーブメントにはまだなっていない。

彼らはプロキシサーバーによる革新的なアプリケーションを実現したわけではないけれど、その実現の可能性を示唆していた。
僕は彼らの主張に触発されたわけではないが、プロキシサーバーをベースにした、アノテーションに基づくトランスコーディング(僕はそれにセマンティック・トランスコーディングという名前を付けた)は、研究する価値が大いにあると思った。
そして、このシステムの最初のプロトタイプをデモしたのは、1999年のことである。

Webページ内のイメージや(HTMLタグ付きの)テキストへの(リンクやイメージを含む)コメント付与、テキストの抽出・要約・翻訳・音声化、(少し後になったが)ビデオ要約・翻訳・テロップ付け、辞書引きによる専門用語のインタラクティブな言い換え、など、およそアノテーションとトランスコーディングでできそうなことはいろいろやった。

僕らが当時やらなかったことで、そのむずかしさを予感していたものは、まさにXanaduの目指している編集・引用の仕組みである。
ただし、たとえば、トランスコーディングの仕組みを使ってドキュメントの任意の要素にアクセス制限をかけるやり方は、IBMで電子署名などを研究しているグループが実現している。
僕はその当時はセキュリティに関する研究にまったく関心がなかったので、セムコードではまだ(ユーザー情報の保護を除く)アクセス制御の仕組みを実現していない。
あと、コンテンツの使用料や著作権料などのマイクロペイメント(少額課金と電子決済)に関してもまったく興味がわかなかったので、その仕組みを実装するのはさらに先のことになる(Xanaduではそのあたりをよく考えているようだけど)。

マイクロペイメントに関しては、SuicaやEdyみたいなプリペイド電子マネーを使えば比較的容易に実現できるから、割と抵抗なく導入できるような気がする(ケータイを持たない僕としては、お財布ケータイなんてのがあたりまえになるとちょっと困ってしまう)。
音楽配信のおかげで(それだけではないと思うが)CDが売れなくなってきたように、(印刷・製本された)本もそのうちあまり売れなくなるかも知れない。
本もCDと同様に、一冊丸ごと買うのではなく、内容をざっと見た上で一部だけ書う、というやり方が一般的になると思う。
たとえば、マンガ雑誌なんて是非そうすべきだと思う(週刊少年○○みたいなマンガ雑誌は厚さの割りに読むところが少ないと思う)。

やはり、アノテーションとトランスコーディングに基づく編集と引用は、あいかわらずむずかしそうだけど、最近の技術の進歩を見ていると何とかできるような気がする。
しかし、コピペをさせないようにする抜本的な方法については未だノーアイディアである。


Webサービスが普及して、マルチメディアを含むコンテンツへのオンラインアノテーションが実現可能になり、多くのWebユーザーがネット社会の(能動的)参加者となった今は、Xanaduを今風に実現するのに適した状況になりつつあるのかも知れない。
あとは、プロキシサーバーがもっと使えるようになるとよいのだけど。

僕は近いうちに、セムコードを拡張してWebをXanadu的なプラットフォームにするプロジェクトを立ち上げようと思っているのですが、誰かこのテーマに共に挑もうという人はいませんか?(テッド・ネルソンたちと組むのもよいですが、とりあえず独立にやりたいと思います)

投稿者 nagao : 01:02 | トラックバック

2006年06月04日

コンテンツよ永遠なれ(前編)

僕は、1996年の9月から1年間、イリノイ大学アーバナ・シャンペーン校に客員研究員として滞在していた。
この大学は、NetscapeやIEの基になったMosaicと呼ばれるWebブラウザが開発された場所である。
Mosaicを開発した学生たち(代表者は、Netscape社の創業者の一人であるマーク・アンドリーセン)が所属していたNCSAという組織(厳密には、その一部門)のある建物(Beckman Institute)の中に僕のいたオフィスがあった。

NCSAの学生ではないが、僕が知り合ったコンピュータサイエンス専攻の学生たちは、よく「Webはいずれ破綻するだろう」と言っていた。
その当時からゴミのような情報であふれていて、質の高い情報を自動的に選び出す手段がなかったからである。
そして、「Webに代わる新しい仕組みを開発しなければならない」と彼らは言っていたけれど、僕は、Webが破綻することはないと思っていた(Webによって新たな社会問題が発生するとは思っていたが)。
その理由は、Webが発明され、ほぼ世界中で使われるようになったことが奇跡みたいなものであり、同様の奇跡が近い将来に再び起こるとは思えなかったし、Webを失ったときの人類の損失は意外に大きいだろうと思ったからである。

しかし、今になって思うと、Webは早い段階で作り直されるべきだったのではないかという気がしている。
HyperTextの提唱者テッド・ネルソンのXanaduやtranspublishingの思想は、今のWeb上で完全に実現するのはもはや不可能なのではないだろうか。
その思想の根幹にあるのは、コンテンツが永続化されており、それに基づいた2次著作物や3次著作物のコンテンツは、すべてオリジナルにたどりつけるようになっている、ということだと思う。
もし2次著作物が引用を含んでいるならば、引用されている部分を変更することも削除することも、2次著作物のコンテキストが変わってしまうため、簡単にはできないことになる。
一度公開したコンテンツに関しては削除も変更も基本的には許さない、という仕組みはコンテンツ制作者にとってとても厳しく、受け入れるのが困難であろう。


僕は、基本的に、ネット上で公開するコンテンツはほとんどすべて永続的なものにするのがよいと思っている。
もちろん、公開してすぐに削除してしまいたいものもいろいろあるだろう。
ブログエントリーなんかも書いて公開した後に、あまりにも不本意なリアクションのために公開を停止しようと思ったことのある人は結構多いのではないだろうか。
僕は、自分の書いたものを引っ込めようという気にはならないけれど、絶対に消さないと決めたことがストレスになることもある(ならば初めから公開などしなければよい、と思われるかも知れないが、公開することで自分の身につくものを期待しているのである)。
また、これは自分の書いたものではないが、腹の立つコメントやトラックバックリンクなどを消したいときもある。
しかし、それらについても、基本的に消すつもりはない(スパムは当然削除するけれど)。


ところで、僕は、最近までブログの最も重要な点を軽視していた気がする。
それは、パーマリンク(permalink)である。

パーマリンク(固定リンクとも呼ばれる)はコンテンツの永続性を実現する仕組みではないが、リンクの一意性を保証することができる。
パーマリンクが指すものは基本的に常に同一のコンテンツなのである。
ただし、その指し先が常に存在するか、というとそこまではわからない。

しかし、パーマリンクがコンテンツの永続性をまじめに考えるきっかけを作ったことは間違いがないと思う。


僕のいる研究室では、コンテンツを永続化するためのアノテーションとトランスコーディングと呼ばれる仕組みについて研究している(これについては以前のエントリー「モノトニックな編集」でも触れている)。

この仕組みの特徴は、オリジナルのコンテンツはできる限り永続化し、削除や変更はアノテーション、つまりメタ情報として管理し、ユーザーのリクエスト(および視聴環境)とオーサーのコントロールに応じてコンテンツを適切に変換して見せる、というものである。
この場合の削除や変更は、原コンテンツに直接反映されるものではないが、閲覧者に届く過程で動的に反映されることになる。
閲覧者によってはあまり適切でない表現を伏字や別の表現にするなどの操作も同じように行われる。
マルチメディアコンテンツも同様に一部を見えなくしたり、オーバーレイで他のオブジェクトを重ねて表示するなどの工夫が考えられる。

かなり面倒だけど、この仕組みをWeb上にインプリメントして、運用可能にすることはできる。
しかし、それでもWebがXanaduのようになるわけではない。
それは、既存の仕組みを破壊した上で新しい仕組みを構築するわけではないからだ。

既存の仕組みは、当然、コンテンツそのものを直接編集するものである。
また、引用はほとんどの場合コピペである。
多くの人は、あまりにもそのやり方に慣れすぎていて、新しい共有・編集・閲覧・引用の仕組みになかなか順応できないだろう。

どうして今の単純でわかりやすいやり方を捨てて、より面倒な仕組みに乗り換えなければならないのか、と思うだろう。
新しい仕組みは、誰に対してどういうメリットがあるのかわかりにくいからだ。
この仕組みは、コンテンツの永続化のためのものであり、それによって恩恵を得るのは、われわれより後の世代の人々、つまり子孫たちである。

もちろん、自分のブログをずっと残しておきたいけれど、文意を歪めるような引用はやめて欲しい、と思っている人にとっては、直接的なメリットがあるだろう。
しかし、今のWeb上でコンテンツのコピペをまったくできなくするのは、かなり困難である。

たとえば、ストリーミングビデオだってクライアント側でコピーを作成することができる。
ちなみに、無料動画配信のGyaOは、コンテンツホルダーに、「コンテンツをネット配信してもユーザーがコピーを作成することは原理的に不可能です」と説明しているらしいが、コピーをとるやり方がどこかのWebページで解説されているらしい(僕は試したことはないけれど)。

実際は、Webに情報を載せたが最後、自分のあずかり知らないところでアーカイブ化されていたり、公開後に気まずくなって削除した情報も誰かにコピペで引用され、晒され続けているのだろう。
これは、コンテンツが永続化されているという点では目的が似ているのだけど、オリジナルコンテンツの管理者がコントロールできなくなるという点がダメなのである。

今まで好き勝手にコピーできていたものがこれからはできません、という話はなかなか納得がいかないだろう。

デジタル放送のねらいは、まさに簡単にコピーできないようにすることにあるのだと思うが、そんなことを言っても、テレビ画面をカメラで撮影すれば(画質は悪くなるが)コピーはできるのである。
コピーをまったくできなくするということは極めて困難なことなのである。

引用するのに、コピペするより明らかに簡単で有利なやり方を考えるべきだろう。
それは、たとえば、ある人が引用しようとしてコンテンツの任意の箇所を選択すると、制作者が期待する引用の範囲が明示され、その部分へのリンクと内容が引用先のコンテンツに表示される(見かけ上コピペしたようになる)ような仕組みである。

これはテッド・ネルソンの言うtransquotationに似ているが同じではない。
それは、このような引用のやり方と表示法は、コンテンツの編集やタグ・コメント付与、そしてアクセス制御やパーソナライゼーションなどとまったく同じメカニズムで取り扱われるものだからである。

さて、その仕組みが具体的にどのようなものになるか、については次の機会に述べることにする。
その前に、テッド・ネルソンの「リテラリーマシン ハイパーテキスト原論」(アスキー出版局 1994)をもう一度読み返すことにしよう。

投稿者 nagao : 09:10 | トラックバック