2009年03月26日

動画シーン引用とシーンプレイリスト

以前のエントリー「動画作文のすすめ」でも書きましたが、僕たちが運営している動画サイトSynvieでは、動画の一部を他のWebコンテンツ(主にブログ)内で引用する手段を提供しています。
ただし、引用できる動画はSynvieに投稿されている動画に限定されています。
これは、他の動画サイトのコンテンツが永続化される保証がないからです(無論、Synvieでも投稿者からの削除依頼があれば対応しますが、それ以外の理由でコンテンツを削除することはありません)。
オリジナルコンテンツがネット上に存在していないにも関わらず、それを引用したコンテンツのみアクセス可能である状態は好ましくありません。
そんなものは今でもいろいろある(たとえば、印刷物である本の引用など)じゃないか、と思われるかも知れませんが、それはネットのない時代にやむを得ず行われていたことをあいかわらずネット上でも行っているだけのことで、ネットならではのコンテンツのあり方としては理想的なものではないと思います。

やはり、引用によってオリジナルコンテンツの制作者の意図を歪めてしまうことはままあると思いますので、必ずオリジナルにたどりつけるようになっているのがよいでしょう。
また、ネット上のコンテンツならばブログのトラックバックのようにリンクを後から挿入することができますから、オリジナルコンテンツの方にも、それを引用しているコンテンツへのリンクを追加することができます。
無論、Synvieでは、動画内のどの部分が引用されているのか簡単にわかるようになっています。
そしてそのコンテンツへのリンクをたどれば、どのような文脈で引用されているのかすぐに確認できます。

さて、動画シーン引用の仕組みは一応できたのですが、それを使ってさらに面白いことができないかと思って、僕のいる研究室の学生が作っているものはシーンプレイリストというものです。
これは、引用されたシーンをつなげて連続的に視聴できるようにしたものです。
複数の動画のちょっとした面白いシーンを集めて、適当に順番を決め、それらしいタイトルをつけて、自分専用のあるいは他者と共有する新たな派生コンテンツとすることができます。

シーンのつなぎの部分の実装が不十分のため、切り替えに若干間があいてしまうのがよくないと思いますが、これから少しずつ改善していきたいと思います。
ご興味のある方は、ぜひ一度試してみていただけるとうれしいです。
プレイリストの作り方は以下の動画を参考にしてください。

これからSynvieの新しい機能であるビデオシーンプレイリストについてご説明します。

まず、トップページのタブ一覧から「プレイリスト」を選んでクリックします。

すると、上のようにプレイリストのトップ画面が表示されます。
これは、過去に登録ユーザーによって作成され、共有されたシーンプレイリストの一覧です。

そして、一覧の中からどれかを選んでクリックすると、プレイリストの閲覧画面になります。

左側にビデオとコメント(シーンに対してではなくプレイリストに対するもの)の画面、右側にシーン一覧とそのシーンを引用しているブログエントリーの情報が表示されます。

プレイリストのシーンはすべて以前に登録ユーザーによって引用されたことのあるシーンです。
つまり、プレイリストを作成する時点では、シーンを決定する作業は終了していなければなりません。
そのシーンの決定は、以下のビデオのような、以前にこのブログでご紹介した仕組み(ビデオシーン引用)で行われます。

シーン引用は、ビデオ視聴ページなどで「ブログを書く」ボタンをクリックして行います。
このときに設定したシーン区間が、プレイリストの要素になります。
ただし、シーンを決定するだけでなく、ブログに引用・公開しないと(自動生成されたHTMLをブログエントリーにコピペして公開する)プレイリストには使えません。

視聴中のプレイリストを編集、つまり、要素の順番を入れ替えたり、いくつかの要素を削除したりすることもできます。

上のビデオのように、シーン一覧の上にある「プレイリストを編集する」ボタンをクリックすると、編集モードになりマウス操作で簡単に編集できます。

上記の編集は一時的なもので、単に閲覧中にちょっとリストを変えたいときに行うようなものですが、何度も閲覧したいと思ったときは、保存しておくことができます。

これも簡単で、やはりシーン一覧の上にある「保存する」ボタンをクリックして、プレイリストのタイトルやタグやコメントを記入して「登録」ボタンを押せばOKです。
ここで、ユーザー登録してログインしているときは、「全体に公開」というチェックボックスが出ますので、他のユーザーと共有したいときはチェックした状態で、自分だけが見たいときはチェックを外した状態で登録してください。

さて、すでに共有してあるプレイリストを加工するのではなく、新しくプレイリストを作成したい場合は、ちょっとだけ面倒なことをやる必要があります。
まず、プレイリストのタブをもう一度クリックして、トップ画面に戻ります。

そして、上のビデオのように、「プレイリスト作成」というグレーのボタンをクリックします。
そうすると、新しいウィンドウが現われ、プレイリストを作成するためのいくつかのやり方を選ぶことができます。
デフォルトでは、ビデオシーン検索において、プレイリストに登録したシーン一覧が表示されます(これに関する説明は省略します)。

以下では、シーンプレイリストを作成する三つの手法についてまとめてご説明します。

一つ目は、ビデオを選ぶと、そのビデオの引用されているシーンをすべてリストにするやり方です。
二つ目は、(Synvieから自動的にトラックバックリンクが張られている)ブログエントリーを選ぶと、そのエントリー内で引用しているシーンをすべてリストにするやり方です。
三つ目は、シーン検索用のタグクラウドからタグを選ぶと、そのタグが関連付けられたシーンをすべてリストにするやり方です。
三つのやり方で共通しているのは、初期リストが生成された後に、その一覧とチェックボックスを使ってプレイリストに含めるシーンを決定する作業です(最初はすべてのシーンにチェックが入っています)。

投稿者 nagao : 09:09 | トラックバック

2009年02月24日

オムニムーバー、人をよける

最近、僕のいる研究室で研究開発している、全方位レンジセンサーを装備し全方位移動が可能な個人用知的移動体(オムニムーバー)による、複数の人間との接触・衝突回避を実現しましたので、ビデオを引用してご紹介します。

オムニムーバーは屋内では、地図を参照しながら、壁沿い走行を行って、目的地まで自動的に移動することができますが、移動の途中で、歩いている人間と遭遇したときにぶつかってしまうことがありました。
これではとても安全な乗り物とは言えませんので、歩いている人間が周囲にいてもぶつからないように動く仕組みを考えていました。

赤外線レーザーを使って、レーザーが届く範囲に存在する物体との距離を計測するレーザーレンジセンサーによって、移動体周辺の物体の位置(正確には物体とセンサーとの距離)を知ることができますが、自分自身が動いているので、周囲の物体との相対的な位置関係が変化します。
問題は、その位置の変化が予測できるかということです。
予測が当たれば、その物体とぶつからないように動くことはそれほど困難ではありません。
オムニムーバーは人間と同じように、どの方位にも旋回せずに動けますから、よけるために向きを変える必要はありませんので、比較的短い時間で回避行動をとることができます。

近くにある物体が壁や柱などの地図に載っているものなら、目的地までの経路を決めるときに、あらかじめ考慮しておくことができますが、一時的に荷物が置かれたときなど、地図に載っていないものが経路上に存在することがわかったときは、自分から見てどの方向のどのあたりにその荷物が存在するかを計算しながら動的に進路を変更する必要があります。
そのために、前述のレンジセンサーが役に立つわけですが、物体が動かないなら、問題はそれほどむずかしくはありません。
自分が止まるか、後ろに下がるかすれば、絶対にその物体にぶつかることはないからです。

しかし、物体が動いている場合は、問題は格段にむずかしくなります。
そもそも、自分より速く動く物体が接近してきた場合は、その進行方向が事前に予測でき、直前に変化しない場合を除いて、それをよけることは原理的に不可能です(ちょっと物騒ですが、プロペラの飛行機に、自動追尾機能を持ったミサイルが接近している状況を想像していただけるとわかると思います)。

オムニムーバーが人間より速く動ける乗り物であるという想定(実際は、電源の関係で、人間の早足(秒速約2メートル)より遅いです)で、人間の移動速度と方向(これを移動ベクトルといいます)を動的に予測して、その邪魔にならないように進路を変えるか停止する仕組みを実現しました。

以下の図は、レンジセンサーで得られた移動体(中央の青い長方形)を中心とした環境情報です。
緑色の点や線が動かない障害物をピンク色の線の集合が動く障害物(の移動ベクトル)を表しています。
また移動体の周囲の色の付いた部分は移動可能領域を、青い線は目的地に近付くための最適な移動方向を示しています。

at9-rangesensor.jpg

レンジセンサーの赤外線レーザーは物体を透過できませんので、壁などがあるとその向こう側の状態がわからなくなります。
そのため、交差点などで出合いがしらに人間とぶつかってしまうことを避けるために、環境側にもセンサーを設置しています。
これについては、また別の機会にご説明します。
ちなみに、移動体同士の場合は、事前に、通信によって現在位置と進路を相手に伝達していますから、衝突を回避することは比較的容易です。
安全で効率的な自動トランスポーテーション(人や荷物を目的地に自動的に運ぶ技術)のために、さらなる研究を進めていきたいと思います。

では、これからオムニムーバーこと個人用知的移動体AT9号機の自動走行と障害物回避のデモビデオをご紹介します。
このビデオでは、移動体に人が乗っています(乗り物なので当然ですね)が、操縦はコンピュータが行っています。
また、ビデオの中では表現されていませんが、自動走行のために、建物内の地図を移動体が自動的に取得して、搭乗者が目的地を自由に設定できるようになっています。

AT9号機の屋内自動走行は、基本的に壁を手がかりにして行います。

そして、角を曲がるときは、できるだけ壁から離れないようにします。
最初に曲がる方向を向いてから横に動き、正面の空間が広がったら前進します。

走行中に人間が近づいてくることがわかったときは、その移動の邪魔にならないように動きます。

この場合は、ほぼ真横によけて人間の進路から外れます。

障害物が動かないことがわかったら、あまり大袈裟によけずに、近くまで寄ってから最短の経路でよけます。

静止物だと思って近づいたら、至近距離でいきなり動き出した場合は一般によけられませんが、人間や他の移動体であることが他の手段(人感センサーや通信)によってわかれば、突然動き始めることが予測されますから、やはり、あまり近づかないようにします。
周囲に障害物(と思われるもの)が見つからなくなったときは、再び壁に近づいてから、壁沿い走行を継続します。
壁には、ランドマークとなるRFIDタグが設置されていて、ATが現在位置を認識し、走行経路を確認するために利用されます。
一般に、壁沿い走行の方が速く動けるようになっていますので、あたりまえのことですが、障害物がないときの方が目的地に早く到着します。

次は、左折ですが、右に曲がったときと同様に曲がる方向をあらかじめ向いてから右方向に走ります。

僕は、この動き方は、進行方向が変わることを、搭乗者にわかりやすく知らせるための方法の一つとしても有効だと思っています。
ちなみに、搭乗者は、いつでも自動走行をキャンセルして降車できるようになっています。

比較的広い空間に出ましたので、この場合ATは、必ずしも壁沿いではなく、目的地まで直線的に動こうとします。
あたりまえですが、空間が広いと障害物回避がより容易になります。

このとき、やはり人間が近づいてくることがわかったら、その移動ベクトルを予測して、人間の進路と重ならず、かつ、目的地にできるだけ近づけるように移動します。

このシーンのようにきびきびと動けるとよいですが、実際はこの3分の2程度の速度で動いています。

それにしても、このビデオはATが自動的に動いていることがわかりにくいですね。

投稿者 nagao : 00:02 | トラックバック

2008年11月14日

スティッキーとアンダーライナー

僕のいる研究室では、以前からミーティングのためのよいツールを模索してきました。
それで最近作っていたものは、PCを使ったプレゼンテーションに対して、参加者がスクリーン上にアノテーション(注釈付け)をするツールです。
それには今のところ2種類あって、それぞれをスティッキーとアンダーライナーと呼んでいます。

スティッキーとはポストイットのようにスクリーン上に付箋を貼るためのツールです。
付箋といっても、当然、紙を貼るわけではなく、スクリーンの任意の位置にテキストや画像を配置するというものです。
テキストや画像を配置する場所は、参加者全員が持つWiiリモコンで変えることができます。
また、画像の場合は、そのサイズもリモコンで変更できます。

そして、アンダーライナーは名前の通り、スクリーンに表示されているテキストに下線を引くためのツールです。
誰かのプレゼンテーションの最中に、スクリーンに投影しているスライドなどの資料内の任意のテキストに、発表者や質問者が下線を引きたいと思うことがときどきあるでしょう。

それで、やはりWiiリモコンと、OCR (Optical Character Recognition)ソフトを使って、スクリーン上の任意の文字をポイントして、単語や文に下線を引く仕組みを実現しました。
OCRは画像内の活字部分を自動的に認識する仕組みですので、文字とその位置(スクリーン上の矩形と座標)が同時に取得できます。
また、僕たちは以前からWiiリモコンをレーザーポインタの代わりとして利用してきましたから、ポインタ(ドットとストローク、マウスカーソル、アンダーライナーの切り替えができます)の座標は簡単に取得できます。
これらの仕組みを組み合わせることで、Wiiリモコンでポイントした任意のテキストに下線を引き、さらに、その文字を抽出して記録や検索に利用することができます。

下線を引いた語は、後でその内容を検索するときの重要な手がかりになりますから、いつ誰がどの資料のどの語に下線を引いたのか自動的に記録します。

さらに、スティッキーとアンダーライナーを連携して用いることができます。
たとえば、下線を引いた語に注釈を加えるような場合です。
これは、スティッキーでテキストやイメージを送信するときに、同じ参加者が直前に引いた下線と連結するように指定することができます(注釈を下線の位置に移動すると連結は解除されます)。

このような仕組みを使うことで日常的なミーティングが活性化され、多くのアイディアが生み出されていくことを期待しています。

これから、僕たちが普段ミーティングで使用しているスティッキーとアンダーライナーというツールについて、ビデオを引用してご説明します。

スティッキーはスクリーンの任意の位置に付箋を貼り付けるツールです。



ここで左隅にテキストを置いていますが、実はこれは検索クエリーとしても機能します。
この動画では以前にスクリーンに表示された内容を左隅のテキストを用いて検索しています。

検索結果を見て、今回のミーティングのトピックになりそうなものをピックアップしてコピーしています。



コピーは上の動画のように行います。
まず、テキストや画像のオブジェクトをポインタのストロークでなぞると選択されますので、それらを最初に開いた白紙のページに貼り付けます。

僕たちのミーティングでは、参加者全員が自分専用のWiiリモコンを持って参加します。



上の動画の左はWiiリモコンのポインタをマウスカーソルとして利用しているシーンで、Aボタンでクリックできます。
スクリーン上のオブジェクトを選択して移動させることができます。
また、右はアンダーライナーとして利用しているシーンです。
これはスクリーン上のテキストに下線を引くためのツールです。
画像内の文字を選択することもできます。
Wiiリモコンの左側面に装着されている黒い物体は、赤外線信号のデコーダです。
以前にもこのエントリーに書きましたが、Wiiリモコンをマルチディスプレイに対応させるためのデバイスです。

僕たちのミーティングは、マルチディスプレイで行うことが多いですが、たいていの場合、メインスクリーンにはミーティング全体の状況が常に表示され、サブディスプレイは個別の内容を詳細に説明するために使われます。
以下の例では、サブディスプレイでシステムのデモを表示し、そのスナップショットをメインスクリーンに転送しています。
スティッキーはクリップボード、アクティブウィンドウ、全画面のどれかのイメージを自由にキャプチャしてスクリーンに貼ることができます。



また、上の動画のように、Wiiリモコンで選択して、画像のサイズを変更することもできます。

そして、スティッキーとアンダーライナーを連携させることもできます。



まず、上の動画のように、アンダーライナーでテキストに下線を引いておき、スティッキーでキャプチャした画像を転送します。
このとき、Connect with Underline(下線と画像を連結する)をチェックしてから行うと、スクリーン上で両者を関連付ける黒い線が描かれます。
この線は、オブジェクトを移動してもついてきます。
この関連付けは、後で、コピーや検索のときに活かされます。

もちろん、PowerPointなどのスライドやWebページ内のテキストにも下線を引くことができます。



これにはOCR (Optical Character Recognition)ソフト、つまり画像内の文字を認識するプログラムが使われています。
下線の長さや太さは、Wiiリモコンの十字ボタンで変更できます。

このシステムは、マルチユーザーに対応していますから、複数人が同時に利用することができます。
とりあえず、12人までは実際に試してみましたが、多人数が同時にスクリーンをポイントすると自分のポインタがスクリーンのどこに表示されているのかわかりにくくなることを除いて、特に運用上の問題はありませんでした。



この動画のように複数のユーザーが好きな場所に下線を引くことができます。

投稿者 nagao : 02:05 | トラックバック

2008年11月07日

動画作文のすすめ

ご無沙汰しております。
先月は、いろいろとモノ作りをしていたのでこのブログをおろそかにしてしまいましたが、これから少しずつ、これまでにやってきたことをご紹介していきたいと思っています。

僕たちが運営している動画共有・アノテーションサイトSynvieもようやく次の段階に入ろうとしています。
2006年7月1日にサイトを開設して、2年が経過しました。
まだあまり有名じゃないし、いわゆるイリーガルなコンテンツをまったく受け付けないサイトなので、内容的にかなり物足りない感じがしますけれど、いろいろと新しい試みを行っています。

次のトライアルは、シーン引用という仕組みを使った動画作文というものです。
これは、動画の一部を、文章の中に織り交ぜて新たなコンテンツを制作するというものです。

たとえば、ピクトグラム(絵文字)を用いて、文章を直感的にわかりやすくするというやり方がありますが、この絵文字の部分を動画にしてしまおうということです(動画文字(ムービーグラム)なんて呼ぶのはどうでしょう)。

動画文字を使った作文の特徴は、文字が時間軸を持つことによって時間に関連する文脈をより適切に伝えることができることです。
一般に、文字は時間に依存していませんから、「しばらくして」なんていう表現があってもその時間がちゃんと表現されていません。
時間と共に変化するようなものは、言葉で表すよりも動画を使った方がより効果的でしょう。
ただし、1日を表す動画文字が本当に1日分の時間を持っていたら、そのコンテンツを見終わるのに丸1日以上かかってしまいますから、適当にはしょったりはしますが、少なくとも通常の文字よりも時間(およびそれに伴う変化)をうまく表現できるでしょう。

無論、動画作文には新しいツールが必要です。
そのために僕のいる研究室の学生が作っている仕組みは、シーン引用というものです。
シーン引用の機能は、実は、Synvieの運用開始時から存在していたのですが、ブログに引用できるのはサムネイル画像と動画へのリンクだけだったり、引用する時区間の選択がわかりにくかったりしたため、あまり使われていませんでした。
それで、動画内のシーン区間を直感的に選択できるようにし、かつ、引用したシーンがブログ内で視聴できるように改良しました。

そのシーン引用に関する説明ビデオが公開されましたので、このブログに引用してご説明したいと思います。

これからSynvieの新しいシーン引用機能についてご説明します。

まず、Synvieのビデオ視聴ページで左上の方にある「ビデオを引用してブログを書く」というボタンをクリックして、シーン引用のページに行きます。



そうすると、視聴していたビデオが引用のページに自動的に読み込まれます。
これは、右上の小さなウィンドウに表示されます。
そして、この引用ツールの最大の特徴である、サムネイルシークバーが縦横に展開されます。

このサムネイルをマウスドラッグすることで、簡単にシーンを探すことができます。



縦横のシークバーの違いは、縦はサムネイル間の時間を変更可能(10秒、30秒、1分など)で、横は固定(2秒)になっていることです。
そのため、縦はざっと動画を見て、引用したいシーンにあたりをつけるために、横はシーン区間を詳細に決定するために使います。
視聴中に、チェックなりツッコミなりをした時間はサムネイルにマークされていることでわかります。
縦のシークバーでは赤い枠線で、横のシークバーでは赤いアンダーラインで表示されています。

サムネイルシークバーを使って引用する動画シーンを選択するには、以下の動画のように行います。



サムネイルシークバーの画像の下のあたり(三角アイコンが表示されているあたり)をクリックするとシーン区間を設定できます。
やり方は動画を見れば一目瞭然ですね。
ちょっと変わっているのは、コントロールキーを押しながら左クリックするとクリックした画像が代表画像になるということです。
これはブログページを最初に開いたときに、動画フレームに表示される画像です。
特に何もしないとシーンの開始時間の画像が代表画像になります。
また、シーンの開始と終了時間(の画像)を選択した後、シークバー上で右クリックすると、選択したシーンをプレビューしたり、ブログに引用するかどうか決めるための、ダイアログが表示されます(現在は、この動画とは若干異なる表示になっています)。

引用するシーンが決まったらブログを書いてみましょう。
シーン引用ページのサムネイルシークバーの下にはいくつかのタブがあって、「ブログ執筆」というタブに、引用したシーンの代表画像と文章を書くスペースが表示されています。



引用したシーンごとにパラグラフができていて、パラグラフのテキストフィールド(画像の直上と直下)に文字を入力します。
上に書くか、下に書くか、あるいは両方かはご自由にしてください。
そして、パラグラフの位置は、その直下に並んでいるボタン(「上に移動」、「下に移動」)で操作できます。
また、「上のシーンと結合」「下のシーンと結合」というボタンは、引用した動画シーンを結合するという効果があります。
これはシーンの共引用と呼ばれるものです。
共引用の編集の仕方については上の動画をご覧ください。

共引用は、動画の新しい見方を提供してくれるものと考えています。
そして、その効果がよりはっきりしてくるのは、複数の動画からシーン引用した場合です。



また、他の人がブログに引用したシーンを簡単なやり方で再引用できるような仕組みも考えています。

一つ目の動画は最初に視聴していたものでしたが、二つ目をどうやって決めるかというと、次の動画に示されるように、タイトルの一部のテキストで検索して、その結果から選ぶこともできますし、これまでの視聴履歴の中から選ぶこともできます。



さて、二つ目の動画を選ぶと、サムネイルシークバーも二重になります。
かなり画面がうるさくなってきますが、直感には合うと思います。



サムネイルシークバーを二重に表示することで、二つの動画を見比べながら引用することができます。
そのやり方は、上の動画に示されている通りです。
このあたりが、僕たちがこれからとても面白くなると考えているものです。

まったく異なる動画の中から、並べて見ると面白いシーンを探してみると結構楽しいと思います。
次の動画に示されるように、共引用されたシーンをブログ内で同期的に視聴することができます。



ちなみに、最大4つのシーンまで共引用して同時に見ることができます。

さて、シーン引用ブログの編集が終わったら、みなさんがお使いのブログサービスを使って、編集したブログを公開してみましょう。



そのためには、上の動画にあるように、「HTML生成」タブを選択して、HTMLテキストをクリップボードにコピーして、お使いのブログの編集ページでペーストしてください。
ちなみに、動画シーン用のプレイヤにはFlashを使っていますが、現在のところ、このFlashの貼り付けに対応しているブログサービスは、Seesaaブログ、FC2ブログ、livedoorブログ、および、LOVELOGのようです。
楽天ブログ、エキサイトブログ、Yahoo!ブログ、はてなダイアリー、Amebaブログ、gooブログ、Doblogなどは、現在のところ、まだ対応していないようです。
とても残念です。
今後に期待することにしましょう。

投稿者 nagao : 02:05 | トラックバック

2008年07月16日

セマンティックトランスコーディング再び

大変ご無沙汰しています。
Synvieの新しいビデオシーン引用の機能を使って、大学での講義の内容の一部をご紹介します。
新しいシーン引用は、ブログ内でビデオシーンを視聴することができます(ビデオ画面にマウスカーソルを置いてクリックしてください)。
2画面が横に並んでいるものは、2つのビデオのシーンを共引用したもので、同期的に再生することができます(ビデオ画面右下の「同期再生」ボタンをクリックしてください)。
講義内で語られている内容は、僕が10年くらい前から研究を行っているセマンティックトランスコーディングというWebコンテンツ技術に関するものです。

これから、セマンティックトランスコーディングについて講義で説明したビデオの一部をご紹介します。

まず、コンテンツをより高度に利用できるようにするためのアノテーションと呼ばれる仕組みについて説明しています。
アノテーションとは、メタコンテンツ(コンテンツに関するコンテンツ)の一種であり、機械がコンテンツの意味を処理するためのヒントとなる(主に人間が入力する)情報のことです。



アノテーションは次に説明するトランスコーディングにおいて重要な役割を果たします。

トランスコーディングとは、ネット上でコンテンツを柔軟に変換するための技術です。



アノテーションを用いてコンテンツの意味を考慮して行うトランスコーディング(コンテンツ変換)のことをセマンティックトランスコーディングと呼んでいます。

セマンティックトランスコーディングの例として、テキストコンテンツの要約、翻訳、音声化のデモを行っています。



テキストコンテンツのトランスコーディングには、言語的アノテーションという仕組みが重要です。
これについては、いつか詳しくご説明します。

次に、Webページ内に含まれる専門用語をよりわかりやすい表現に言い換える仕組みをデモしています。
これもテキストコンテンツのトランスコーディングの一例です。



この仕組みはクリックパラフレーズと呼ばれていて、よくわからない言葉を画面上でクリックすると辞書による定義文を文脈に合うように変形して、クリックした言葉に置き換えるという処理を行います。
言い換えられた表現の中にもわからない言葉が含まれている場合は、さらにクリックして言い換えてもらうことができます(これを続けていくと文が長くなってとても冗長な表現になってしまいますが)。

最後に、アノテーションとトランスコーディングによって近い将来にどのようなことが可能になるかについて話しています。



この技術は、コンテンツを個人化(個人に適合させること)できるだけでなく、コンテンツを資産として運用できるようにしたり、情報の国際化やバリアフリー化に貢献するだろうと思われます。

投稿者 nagao : 02:26 | トラックバック

2008年04月15日

オムニムーバーによる自動トランスポーテーション

最近、アメリカのセグウェイ社が全方位移動ができる小型の乗り物を開発したという話を読んで、やはりそうきたか、と思いました。
全方位移動は地上を走る乗り物の自由度を大きく変える仕組みだからです。
セグウェイの全方位移動マシンは、さすがにお金がかかっていて、ネットで見たところ、僕たちが開発したATより小型で動きがスムーズです(しかし、重さが181kgというのはちょっと重すぎる気がします。これはきっと積載可能重量のことですね)。
だけど、人を乗せて安全に移動するためには、ある程度の大きさが必要だから、いろいろ組み込んでいくうちに、僕たちのAT9号機とあまり変わらない大きさになるのではないかと思います。

以下で紹介するビデオは、以前のエントリーでも紹介したAT9号機(通称、オムニムーバー)による自動トランスポーテーションのデモです。
ATというのは僕たちが研究・開発している個人用知的移動体の名前で、常にネットワークにつながっていて他の移動体と情報を共有していること、個人認証によって搭乗者の特性や技量に適応すること、などの特徴があります。
また、自動トランスポーテーションというのは、人を行きたい場所に自動的に運んでくれる仕組みのことですが、無人自律走行と異なる点は、搭乗者の快適さと安全性を十分に考慮すること(たとえば、搭乗者が不快になるような加速・減速をしない、など)と、ナビゲーションシステムと同様に移動の任意の時点で搭乗者が必要とする情報を提供することです。
今回は、総合病院や大型ショッピングセンターのような大規模で複雑な建物内で、人を目的地まで移動させる場合を想定しています。
そのため、建物の入口で屋内の地図を自動的に取得して搭乗者に提示し、目的地を決めてもらい、壁に設置されたRFID (Radio Frequency Identification)タグを使って現在位置を確認しながら、目的地に向かう、という手法を採用しています。
もちろん、全方位移動の機能を有効に活かして、安全に角を曲がったり、人を避けたりしています。
今後は、屋外も同様に自動的に移動できるようにしようと思っています。

オムニムーバーことAT9号機による自動トランスポーテーションのデモです。
これは、建物内で目的地を設定すると、自動的にその場所に連れて行ってくれるというものです。
以下のサムネイルをクリックするとビデオ共有サイトに移動します。
該当するシーンが終わると一時停止しますので、続きを見たい場合は、一時停止を解除してください。

個人用知的移動体ATによる屋内自動トランスポーテーション : 00:04 - 00:30 個人用知的移動体ATによる屋内自動トランスポーテーション : 00:04 - 00:30
ATのコンソールはタッチパネルになっていて、簡単なやり方で目的地を設定できます。

個人用知的移動体ATによる屋内自動トランスポーテーション : 00:30 - 01:00 個人用知的移動体ATによる屋内自動トランスポーテーション : 00:30 - 01:00
なぜか、エレベータから出てくるところから始まりますが、ATは施設を管理するサーバーと通信する機能を持っていますから、エレベータの状況を調べたり、呼んだりできるようになるはずです。
また、壁に接近すると自動的にその場回転して進行方向を変えます。

個人用知的移動体ATによる屋内自動トランスポーテーション : 01:00 - 01:14 個人用知的移動体ATによる屋内自動トランスポーテーション : 01:00 - 01:14
前から人が来ると、真横に避けます。
もちろん、真横に避けられないときは停止します。

個人用知的移動体ATによる屋内自動トランスポーテーション : 01:16 - 01:36 個人用知的移動体ATによる屋内自動トランスポーテーション : 01:16 - 01:36
このATは角の曲がり方に特徴があります。
角が近くなると、曲がる方向をあらかじめ向いてから横方向に移動し、前方に空間が広がったときに前進します。
これには、角を曲がるときにできるだけ壁から離れないように進めることと、進行方向が変化することを事前に搭乗者に知らせるという効果があります。

個人用知的移動体ATによる屋内自動トランスポーテーション : 01:36 - 02:01 個人用知的移動体ATによる屋内自動トランスポーテーション : 01:36 - 02:01
目的地に到着したことは、入口付近にあるRFIDタグによってわかります。
そして、その場所に関連した情報をサーバーから自動的に取得して提示します。

投稿者 nagao : 01:12 | トラックバック

2007年10月01日

ビデオダイバー

僕のいる研究室で研究開発されたビデオシーン検索システムDivieが一般公開されてからほぼ半年が経過しました。
これを開発した学生は、この研究に関する論文で2つの学会から賞をいただきました。
しかし、Divieのビデオシーン検索が一般に浸透しているとはまだとても言えない状況です。
Synvieのシーン引用型ビデオブログ(このエントリーがその例)も同様ですが、もっと多くの人に使ってもらえるための努力をするべきだと思っています。

たとえば、シーン検索やシーン引用の意義やありがたみがよくわかるように説明して、多くのビデオ共有サイトにその仕組みを取り入れてもらえるように働きかけることです。
それは、学生ではなく、僕がやるべき仕事だと思いますが、まだちょっと戦略が練りきれていないのです(そもそも僕はビジネストークが苦手ですし)。

その理由として、一般ユーザーが投稿するビデオはほとんどの場合あまり時間が長くないので、細かいシーンに分割する意味があまりないこと、比較的時間の長いビデオコンテンツは商用のものが多く公開期間が限定されているため、シーンタグの再利用性が低いこと、また、放送コンテンツを誰かが無断でネットに投稿している場合はいつ削除されるかどうかわからない不安定なものであるため、同様にメタデータの再利用性が低いこと(たとえば、「ニコニコ動画」で投稿されたビデオが削除されて、それへのコメントだけが残されていてもあまりうれしくないですよね)、などがあります。
つまり現在のところ、ビデオシーンへのタグ付けや引用にそれほどコストをかける気が起こらないのもわかる気がします。

ならば、コンテンツホルダーと何らかの契約を結んで、ある程度のボリュームがあり永続化可能なコンテンツを提供してもらうという手がありますが、今のところあまりうまくいっていません。
ただし、ここが大学である利点を活かして、講義ビデオのコンテンツを制作して公開していくことも考えています。

ところで、Divieはビデオコンテンツに深く潜って探索するという意味が込められた名前ですが(DivieはDive into Movieの略です)、ビデオに潜るということに関して、まだまだ説明が十分ではないと思っています。

ビデオに潜る(それをビデオダイビングと呼んでいます)ということは、ただ見たいシーンを探し出すことだけではありません。
ビデオ全体を概観した上でシーンを選び、気に入ったシーンを繰り返し視聴して内容を理解し、さらに背景や言外の意味(ビデオに陽に表れていない人物設定など)を推論することによって、より深いレベルでコンテンツを記憶に留めることを含んでいます。
ですから、シーン検索はそのためのきっかけに過ぎないのです。

そして、発見したビデオシーンの意味を深く考えるためにシーン引用ブログが役に立ってくるわけです。
世界中のビデオ共有サイトで、シーン検索とシーン引用が可能になれば、僕たちの目指しているビデオダイビングあるいはディープサーチがより実用的なものになると思います。

僕たちはまだまだ未熟で、理想とする世界にはまったく手が届いていないのですが、何もできずにただ時代に流されてしまうのでは研究をしている意味がないと思いますので、少しでも理想に近づけるようにこれからも努力を続けていきたいと思います。

これから、Divieの使い方に関するビデオをご紹介します。残念ながらまだあまり話題になっていませんが、このビデオで紹介するビデオシーン検索はこれからさらに重要になっていくと思います。

ビデオシーン検索システムdivie : 00:00 - 00:14
ビデオシーン検索システムDivieはビデオ共有サイトSynvieのサブシステムになっています。Synvieのトップページの「検索」タブをクリックすると、検索のメインページに移動します。

ビデオシーン検索システムdivie : 00:16 - 00:36 ビデオシーン検索システムdivie : 00:16 - 00:36
Synvieで付けられたビデオシーンに対するコメント文を解析して検索タグを抽出しています。特徴的なのは、タグが名詞・動詞・形容詞に分類されていることです。意外に、動詞や形容詞のタグもシーンを特定するのに役に立つようです。

ビデオシーン検索システムdivie : 00:36 - 01:08 ビデオシーン検索システムdivie : 00:36 - 01:08
タグはデフォルトの一覧表示から選ぶこともできますし、検索ページの上下にあるテキスト入力フィールドで任意の文字を入力すると、その文字で始まるタグがインクリメンタルに検索されて一覧表示されますので、その中から選ぶこともできます。選ぶときはタグをマウスクリックします。タグを選び終わったら、入力フィールドの右にある「Dive!!」ボタンをクリックします。これはボタンではなくEnterキーを押してもよいようにすべきですね。

ビデオシーン検索システムdivie : 01:10 - 01:32 ビデオシーン検索システムdivie : 01:10 - 01:32
検索結果のランキングは、選択したタグのコメント内での出現頻度と(複数選ばれた場合は)タグの選択順(先に選んだタグの方が優先されます)に基づいて決定されます。このランキングは視聴回数などのメタデータが増えてきた場合に改良される予定です。
タグにマッチしたビデオシーンは、ビデオ時間を表示するシークバー上で、タグが関連付けられた時間区間を色で示すことで表現されます。ですから、選択されたタグのビデオ内での出現分布が一目でわかるようになっています。

ビデオシーン検索システムdivie : 01:34 - 01:42 ビデオシーン検索システムdivie : 01:34 - 01:42
ビデオの内容はサムネイルで確認できます。さらに、サムネイルの右側にそのビデオに関連するタグの一覧を表示しています。そのタグの一覧を見れば、そのビデオのだいたいの内容を推論できると思います。
また、一覧の中からタグを選択すると、そのタグの出現分布も同様にシークバー上に表示されます。

ビデオシーン検索システムdivie : 01:56 - 02:04 ビデオシーン検索システムdivie : 01:56 - 02:04
シークバーのスライダーの操作とサムネイル表示が連動しています。スライダーは、タグの出現する時間区間(色の付いている部分)をクリックしたり、ドラッグして適当な位置でドロップすることによって移動させることができます。

ビデオシーン検索システムdivie : 02:04 - 02:20 ビデオシーン検索システムdivie : 02:04 - 02:20
ビデオの内容をざっと見るには、このようなタグとサムネイルを用いたインタフェースが適切だと思います。もちろん、これでは音声を聞きながら内容を確認することはできませんし、直接ビデオを見たほうが早い場合もあるでしょうが、検索結果がビデオシーンへのダイレクトなリンク集になっているよりも、周辺の文脈を一緒に表示して検索者への手がかりとする方が優れていると思います。それは、ビデオシーンへのピンポイントな検索はまだ困難であり、そもそも検索という行為は目標物に辿り着く過程にも重要な意味があると考えているからです。

ビデオシーン検索システムdivie : 02:20 - 02:32 ビデオシーン検索システムdivie : 02:20 - 02:32
サムネイル画像にマウスカーソルを置くと拡大表示されます。この拡大表示はビデオを100%の表示倍率(Synvieでは25%刻みで表示倍率を変更できます)にしたときのフレームサイズとほぼ同じ大きさです。つまり、この拡大表示の大きさでビデオを見ることができます。

ビデオシーン検索システムdivie : 02:38 - 02:52 ビデオシーン検索システムdivie : 02:38 - 02:52
さらに、画像をクリックするとその時間からビデオが再生されます。ビデオは別ウィンドウに表示されます。このあたりのインタフェースにも改良の余地がありますね。

ビデオシーン検索システムdivie : 03:52 - 03:58
Divieでのビデオシーン検索の説明は以上です。divieというキーワードでWeb検索をすると、前述のメインページへのリンクが(今のところ)ランキングのトップに出るようです。やはり、Flickrみたいに名前には工夫が必要ですね。

投稿者 nagao : 01:57 | コメント (221) | トラックバック

2007年09月17日

オムニムーバー始動

最近、僕のブログはこの話題ばかりですが、先日のテクノフェア名大で一般公開したAT9号機を、今回はビデオを交えてご紹介します。
無論、ビデオはSynvieにてご覧ください(以下のイメージをクリックするとSynvieに移動します。該当するシーンが終わるとビデオが一時停止しますので気をつけてください)。

8号機までは、完全に僕の設計と研究室のメンバーの手作り(東急ハンズでアルミの加工をやってもらいました)だったのですが、この9号機は、(株)ニチエイという名古屋の会社に本体の設計と製作を依頼しました。
これは、全方位移動という機能を実現するために、機械設計の専門家の経験とスキルが必要だったからです。
ただし、センサー(市販されているものを使用)に関連するデバイスの作成や、制御と通信などのためのソフトウェアの開発は、これまでと同様に僕たちが行っています。

9号機の主な特徴は、オムニムーバーつまり全方位移動体であること、Wiiリモコンを操縦インタフェースにしていること、非搭乗時にはWiiリモコンを使って直感的な遠隔操作ができること、バーチャルウォールシステム(走行範囲の柔軟な制限機構)を搭載していること、カメラや他のセンサーを用いた体験キャプチャマシンになっていること、です。

近いうちに、全方位をスキャンできるレーダー(レンジセンサー)を使って、9号機をぶつからずに安全に移動できる乗り物にしていく予定です。

名古屋大学長尾研究室で研究開発中の個人用知的移動体ATのデモビデオをご紹介します。

AT 9号機 紹介ビデオ : 00:16 - 00:18
ATとは、Attentive Townvehicle(つまり、気配りする街車)の略称です。その9番目の機体なので、AT9号機と呼んでいます。

AT 9号機 紹介ビデオ : 00:22 - 00:56 AT 9号機 紹介ビデオ : 00:22 - 00:56
これは、オムニホイールと呼ばれる複合車輪を利用した全方位移動(ただし、今のところ前後左右斜めの8方向に限定しています)のデモです。車体の下に非平行に取り付けられた車輪がオムニホイールで、その上の黒い部分が750Wのサーボモーターと減速機です。

AT 9号機 紹介ビデオ : 01:10 - 01:46 AT 9号機 紹介ビデオ : 01:10 - 01:46
これは、RFID(無電源ICチップによるID認証)タグを利用してATの活動領域を制限するデモです。この映像では非常にわかりにくいですが、天井の黒い点のあるところにRFIDタグが接着されています。

AT 9号機 紹介ビデオ : 02:06 - 02:28 AT 9号機 紹介ビデオ : 02:06 - 02:28
これは、ATの前後左右に取り付けられた無線ネットワークカメラを利用した映像と音声による体験記録のデモです。ネットワークにつながった遠隔のPCで4方向カメラの映像をモニタリングできます。

AT 9号機 紹介ビデオ : 02:36 - 02:58 AT 9号機 紹介ビデオ : 02:36 - 02:58
Wiiリモコンと独自に製作した赤外線受光デバイス(IRデコーダ)を用いた直感的な遠隔操作(といってもATから5m以内での操作)のデモです。この拡張デバイスをリモコンにプラグインすると、「乗車運転モード」が「遠隔操作モード」にスイッチして、遠隔操作が可能になります。

AT 9号機 紹介ビデオ : 02:58 - 03:12 AT 9号機 紹介ビデオ : 02:58 - 03:12
ATから5m以内ならば、どの方向からリモコンを向けても(ただし、現在のところ8方向に限定)、ATはその方向に、旋回することなく接近し、自動的に停止します。

AT 9号機 紹介ビデオ : 03:12 - 03:32 AT 9号機 紹介ビデオ : 03:12 - 03:32
また、リモコンを向けながらAボタンを押すと、ATはその時のリモコンとの距離を記憶して、その距離を維持するように動きます。見えない棒で押したり引いたりしているような感じです。

AT 9号機 紹介ビデオ : 03:32 - 03:46 AT 9号機 紹介ビデオ : 03:32 - 03:46
さらに、Aボタンを押しながら、リモコンを左右に振ると、その向きにATが旋回します。これはWiiリモコンの加速度センサーを利用しています。

AT 9号機 紹介ビデオ : 03:46 - 04:12 AT 9号機 紹介ビデオ : 03:46 - 04:12
現在のATプロジェクトのメンバーが出演しているおまけ映像です。ちなみに、ATプロジェクトのURLは、http://www.nagao.nuie.nagoya-u.ac.jp/projects/at.xmlです(近いうちにアップデートする予定)。

投稿者 nagao : 20:42 | コメント (222) | トラックバック

2006年11月03日

Blographer: テキストのグラフ化とコミュニケーション

ビデオブログによるIPA未踏ソフトウェア創造事業の成果の紹介の(とりあえず)最終回です。
僕が採択した他のプロジェクトのビデオがSynvieに投稿されたら、また再開するつもりです。

ここで紹介するプロジェクトは、僕個人の問題意識とも密接に関連していて、とても面白くなりそうだと思ったのですが、結局不発に終わってしまったものです。
うまくいかなかった理由は、やはり僕のマネージメントのせいだと思います。
この開発者も以前に紹介したyosemiteの開発者と同様に、僕の言うことを聞こうとしませんでした。
そのため、肝心のコミュニケーションのための新しい仕組みが適切に実装されませんでした。

僕は、文の言語構造や意味構造を直感的に分かるようにする、うまい見せ方はないものかと長い間考えてきました。
語や文というものは、たいてい1次元的に並んでいるものですが、本来グラフ的に表現しないと正しく意味の伝わりにくいものがあります。
たとえば、代名詞や主語の省略等によって意味があいまいになってしまった文は、先行詞を含む文と該当する文の要素をリンクでつなぐことで意味を明確にすることができます。
そこで、文章を要素間の関係がわかりやすくなるように可視化して、語をノードとしたグラフで文章の意味を補うことが考えられます。

また、マインドマップのような、アイディアを図的に表すことで頭の中を整理したり、客観的に眺めることで新たな発見を促したりするツールや方法論も提案されており、グラフ的表現の重要性も再認識されています。
ですから、文章を書くという作業の副産物としてグラフ的表現を生成するツールがあれば、文書の意味の明確化とその作者のアイディア整理が同時に行えるので、非常に有益なものになる可能性があります。

これからご紹介するBlographerというシステムは、ブログエントリーを執筆中にグラフを生成し、ブログサーバーに投稿することで、テキストをグラフを同時に見ることができる仕組みです。
ブログはやはりオンラインコミュニケーションのツールですから、その意図がわかりやすくなっている方がよいでしょうし、グラフを引用する仕組みがあれば、テキストのコピペでは困難だった、何らかの意味的まとまりを考慮した引用ができるようになるでしょう。

これはBlographerと呼ばれるシステムの紹介ビデオです。

Blographerの解説 : 00:06 - 00:36 Blographerの解説 : 00:06 - 00:36
これはクライアントサイドで動作するツールです。
まず、左側のテキストエディタ部分のフレームに文章を入力します。
すると、文章からキーワードが抽出され、そのノードが右側のフレームに表示されます。

Blographerの解説 : 00:36 - 01:02 Blographerの解説 : 00:36 - 01:02
次に、右側のフレームで、ワードマップの編集を行います。
各キーワードのノードは自由に削除・内容の編集・他のノードとの結線ができます。

Blographerの解説 : 01:02 - 01:10 Blographerの解説 : 01:02 - 01:10
ワードマップを整形後に、テキストと共にブログへ投稿します。

Blographerの解説 : 01:12 - 01:20 Blographerの解説 : 01:12 - 01:20
グラフはXML化され、ブログサーバーに送信されます。
これはグラフを他のブログで引用するなど、再利用するためのものだと思われます。

投稿者 nagao : 23:33 | トラックバック

2006年10月25日

体験ブログ:未来のパーソナルビークルi-unit

先日、トヨタ自動車本社近くのトヨタ会館というところでコンセプトカー(しかしちゃんと動く)のi-unitに乗せていただきました。
僕たちの研究を知る人が担当者の方に紹介してくれたのです。

おかげでとても面白い体験ができましたので、このビデオブログでご紹介します。

Segwayの新型が日本でも発売されるようになったこともあり、個人用の電動の乗り物はこれから徐々にあたりまえのものになっていくのではないかと思っています。

このビデオとは直接関係がありませんが、僕たちの開発した知的移動体ATの一般向けデモを今週の金曜日(10/27)に名古屋大学で行います。
このデモは、テクノフェア名大2006というイベントの中で行われます。
是非、ATを体験しにいらしてください。

さて、これから「i-unitに乗って」というビデオをご紹介します。
ちなみに、このタイトルは、往年の名曲「カローラIIに乗って」にかけています。

i-unitに乗って : 00:04 - 00:06
ここはトヨタ自動車本社隣にある一般向け施設のトヨタ会館というところです。

i-unitに乗って : 00:56 - 00:58
i-unitは電動モーターによる4輪駆動の乗り物です。
ただし、向きを変えられるのは一般の車と同様に前輪だけで、後輪は操舵できません。

i-unitに乗って : 01:36 - 01:38
片手のみで操縦できるインタフェースです。
面白いデザインですね。

i-unitに乗って : 01:56 - 02:12 i-unitに乗って : 01:56 - 02:12 i-unitに乗って : 01:56 - 02:12
右脇のボタンを押すと変形して、低速移動モードから高速移動モードに変わります。
もう一度押すと、逆の変形をします。

i-unitに乗って : 02:44 - 02:54 i-unitに乗って : 02:44 - 02:54
上のフードというかキャノピー(透過型情報ディスプレイにする予定だったらしい)を降ろすと、連動して左手近くのオーディオインタフェースがせり上がってきます。

i-unitに乗って : 03:34 - 03:46 i-unitに乗って : 03:34 - 03:46 i-unitに乗って : 03:34 - 03:46
左右に回転させると前輪の角度が変わり、下に倒すと速度が調節できる操縦インタフェースです。

i-unitに乗って : 04:00 - 04:26 i-unitに乗って : 04:00 - 04:26 i-unitに乗って : 04:00 - 04:26
後ろのカメラで人や物の接近を検知すると光と音で知らせます。
乗っていると音だけでしか分かりませんが。

i-unitに乗って : 04:28 - 04:56 i-unitに乗って : 04:28 - 04:56
いわゆるハプティックデバイスで、振動で手にフィードバックするオーディオコントローラです。
iPodのクリックホイールのように、ボリュームの調整や選曲ができます。

i-unitに乗って : 04:56 - 05:20 i-unitに乗って : 04:56 - 05:20
いよいよ走行開始です。
ここまでずいぶん引っ張ってしまいました^^;;

i-unitに乗って : 05:42 - 06:10 i-unitに乗って : 05:42 - 06:10 i-unitに乗って : 05:42 - 06:10
その場回転はホイールベースの関係で、低速移動モードでしかできないようです。
くるくる回るティーカップみたいで楽しかったです。

i-unitに乗って : 06:24 - 06:40 i-unitに乗って : 06:24 - 06:40
変形過程を後ろから見てください。

i-unitに乗って : 06:42 - 07:00 i-unitに乗って : 06:42 - 07:00
高速移動モードで回転すると内側のLEDがウィンカーのように点滅します。

i-unitに乗って : 07:14 - 07:24 i-unitに乗って : 07:14 - 07:24
また、停止すると後方のLEDがテールランプのように赤く光ります。

i-unitに乗って : 08:00 - 08:06 i-unitに乗って : 08:00 - 08:06
正面はかなり無防備のようです。
これは、何か飛んできたら確実に怪我しますね。

i-unitに乗って : 08:16 - 08:28 i-unitに乗って : 08:16 - 08:28
再び変形です。
乗り物が変形するのは、ロマンを感じますね。

i-unitに乗って : 11:06 - 11:08
i-swing、次はこれに乗りたい。

i-unitに乗って : 11:10 - 11:22 i-unitに乗って : 11:10 - 11:22
i-swingは正面に不思議なディスプレイがあって、動く看板みたいな感じです。
しかし、この蟻は何か変ですね。

投稿者 nagao : 00:24 | コメント (264) | トラックバック

2006年10月15日

yosemite: HowTo型コンテンツのコライティングツール

ちょっと間があいてしまいましたが、IPA未踏ソフトウェア創造事業の成果の紹介の続きです。
今回は(おそらく次回も)「なんでこれを採択したのか?」あるいは「これのどこが未踏ソフト?」といったクレームがたくさんあるのではないかと思います(真摯に受け止めたいと思いますので、好きなようにコメントしてください)。
僕の判断では、プロジェクトの企画そのものは悪くなかったのですが、開発者が本質的な部分を見誤ってしまい、やるべきことをやらなかったためにろくな成果が出なかったということです。

Wikipediaのような、オンラインで不特定多数の人間が協同執筆できる事典が現れたこともあって、コミュニティによる協同コンテンツ制作という考えは一般的なものになりつつあると思います(そもそもWikiはそういう思想で設計されたツールですし)。
ただし、事典のようなそれぞれの項目がある程度独立しているものならともかく、テキストブックのような比較的長い内容を、一貫性を持って不特定多数の人間が執筆するのは困難でしょう。

それに対して、「○○をやるにはどうしたらいいか」というHowToの形式にして、学習者の疑問に答える形で、複数人でコンテンツを充実させていく手法を提案し、そのためのシステムの開発を目指そうとしたのが、これから紹介するプロジェクトです。

ただ、いつまでたってもまともなプロトタイプができてこないので、途中からおかしいなと思い始めました。
一般の企業のソフトウェア開発プロジェクトのリーダーは、おそらく僕より優秀なのだと思いますが、それでもスケジュール通りにものができてこないときは、プロジェクトの見直しを行うと思います。
僕が未踏ソフトウェアのプロジェクトマネージャをやっていてとても残念だったのは、僕が何を言っても聞く耳を持たずに勝手なことをやり続ける(その結果、ろくなものができてこない)開発者がたまにいたということです。

コンセプトが明確で、やるべきこともだいたいわかっているはずなのに実装がなかなか進まないのは、開発者のプログラミングスキルが乏しかったためだと思われます。
そのため、ここで紹介するyosemiteというシステムも結局どこがすごいのかよくわからないものに仕上がっています。

本来は、最も基本的なツールを公開して、ユーザーからのフィードバックに応じて機能を拡張していくべきだったと思います。
このプロジェクトのように、基本的に不特定多数の参加者を前提としたシステムは、独りよがりなものを作って悦に浸っていないで、早く実装して早く公開して、必要に応じてブラッシュアップを繰り返していくべきものだと思います。

その点、Wikiはとてもよくできていると思います。
yosemiteとWikiの違いは、オーサリングするコンテンツの性質に依存した型がツール内に埋め込まれているか、いないか、ということです。
型が埋め込まれている方が不便だ、という人がいるかも知れませんが、それが非常によくできた型ならばそれに従った方が効率的によいコンテンツが制作できる場合があります。
たとえば、メールは宛名(アドレス)を書く欄とサブジェクトを書く欄と本文を書く欄がちゃんと分かれているから、自然に欄を選んでそこに書くべき内容を書くようになっています。
だから、本文中にサブジェクトや相手のメールアドレスを書く必要はありません。
ただし、本文の書き出しは相手の名前を書き、それに続いて自分の名前を書くのがマナーとして正しいと思いますが、そのような型は埋め込まれていないので、いきなり用件から始まるような失礼なメールも多くなっています。
さらに言えば、メールの引用は本文以下にまるっと全部引用するのではなく、返信する内容に関係した箇所の部分引用とその直後に自分の用件を書くというやり方がよいと思っています(これには異論のある人も多いですが、僕はこのやり方が正しいと思っています)。

では、HowTo型のコンテンツはどんな型を当てはめるのが適切なのでしょうか。
yosemiteの開発者は、まず目標や願望を書く(タバコをやめる、など)、そして現状の問題点というか状態を書く(体調が悪い、歯が汚い、周囲の人に嫌がられる、お金がかかる、など)、次に期待される効果を書く(体調が良くなる、歯がきれいになる、周囲の人に嫌がられない、お金が節約できる、など)というところから始めて、手順を箇条書きにしていく、という型を提案しています。
手順もさらに細分化でき、その手順の目標や効果、他のHowToの引用などを含むことができるようです。

これから、yosemiteというHowTo型コンテンツのオーサリングシステムについてご紹介します。

yosemiteの使い方 : 00:04 - 00:12 yosemiteの使い方 : 00:04 - 00:12
まず、コンテンツを新規作成するときは、この画面で行います。
ここでは、「ダイエットする」というタイトルで作成しています。

yosemiteの使い方 : 00:20 - 00:28 yosemiteの使い方 : 00:20 - 00:28
なぜか、検索モード(オーサリングモード以外のモード)に移行して、先ほど作った「ダイエットする」というコンテンツを選択しています。
多分、これはデータベースに登録されたことを確認するためにやっているのだと思います(つまり、確認する必要のないときはやらなくてよいこと)。

yosemiteの使い方 : 01:58 - 02:04 yosemiteの使い方 : 01:58 - 02:04
目標や手順を一通り入力したら、これまたなぜかブラウザの更新ボタンをクリックして検索モードに移行しています。
これは協同著作物であるためやむを得ないことなのでしょうか。

yosemiteの使い方 : 02:06 - 02:29 yosemiteの使い方 : 02:06 - 02:29
ここでは、画像のアップロードの仕方を説明しています。
何の変哲もないやり方ですね。

yosemiteの使い方 : 02:39 - 02:57 yosemiteの使い方 : 02:39 - 02:57
複雑な手順は階層構造を成しているので、各手順の先頭にある「開閉」と書かれたボタンを押すと、より階層の深い内容を見ることができるようです。

yosemiteの使い方 : 02:57 - 03:09 yosemiteの使い方 : 02:57 - 03:09
再び検索ウィンドウを用いて、他のコンテンツを探しています。

yosemiteの使い方 : 03:09 - 03:45 yosemiteの使い方 : 03:09 - 03:45
ここでは、「部屋をかたづける方法」を選択しています。
当然、他の人の書いたコンテンツに内容を追加することもできます。

投稿者 nagao : 15:11 | トラックバック

2006年10月10日

からくりブロック:実世界の文脈を取り入れたデジタルコンテンツ

今回もIPA未踏ソフトウェア創造事業の成果についてご紹介します。
今回のものには、「面白い」という意見の人と「何これ」という意見の人に大きく分かれるような気がします。
このプロジェクトを採択したのは、僕の中で「すごく面白くなりそうな予感」がしたからなのですが、できたものを見るとちょっと「?」な気持ちになってしまいました(やっぱり、開発期間が短すぎますよ、IPAさん)。

物理的なオブジェクトを操作する(置いたり、くっつけたり、傾けたりする)ことで、情報処理が連動し、文脈と関連したコンテンツを表示するシステムは、これまでにも数多く提案されてきました。
ただし、それらのほとんどが、ディスプレイ装置が埋め込まれたテーブルの上でのみ操作可能なものでした。

ここで紹介する「からくりブロック」は、その点を改善し、物理オブジェクト自身が表示機能を持ち、場は位置関係などの文脈情報しか持たないで、オブジェクト間の相対的な関係で表示内容を変化させる、という新しい手法を実現したものです。
そして、からくりブロックのためのコンテンツのオーサリング環境の開発も同時に行われています。

これからご紹介するビデオでは、からくりブロックの利用例が示されており、オーサリング環境の説明は一切ありませんが、僕がこのプロジェクトを採択した条件は、まさにそのオーサリング環境を開発して公開することでした。
現時点では、そのオーサリング環境はオープンにできる状況ではないようですが、近いうちに必ず公開してもらえるものと信じています。

KARAKURI BLOCK Player for からくりブロック : 00:00 - 00:02
からくりブロックという名前はなかなかよいと思います。
似たような名前に、でこぼこフレンズというのがありますね(まったく関係ありませんが)。

KARAKURI BLOCK Player for からくりブロック : 00:04 - 00:42 KARAKURI BLOCK Player for からくりブロック : 00:04 - 00:42
からくりブロックは、PCにFlashコンテンツを動的にダウンロードして表示する仕組みになっています。
将来的にはケータイでも動くようになると思います。
複数のブロック(この場合はSonyの旧型のVAIO type U)を並べて置くと、P2Pの仕組みで通信が行われ、それぞれのディスプレイに表示される映像をつなげて1つの映像として見ることができるようです。

KARAKURI BLOCK Player for からくりブロック : 00:42 - 01:24 KARAKURI BLOCK Player for からくりブロック : 00:42 - 01:24
現在では、PCそのものに内蔵された機能でその物理的位置を知る方法がないので、場の方にセンサーを持たせてPC側にRFIDを装着して、その位置情報を管理するというやり方を採用しています。
僕は、赤外線を使って近くにあるデバイスのIDを送り合うような仕組みにするとよいと言ったのですが、結局実装されませんでした。
センサー(LANに接続できるRFIDリーダー)のある場にPCを配置するとディスプレイに映像が映ります。
別のPCを隣(の場)に置くと2つのPCのディスプレイの映像が連動する仕組みになっています。

KARAKURI BLOCK Player for からくりブロック : 01:26 - 01:36
また、ディスプレイを配置する位置関係を変えることによって、コンテンツを変化させることもできるようです。

KARAKURI BLOCK Player for からくりブロック : 01:36 - 02:16 KARAKURI BLOCK Player for からくりブロック : 01:36 - 02:16 KARAKURI BLOCK Player for からくりブロック : 01:36 - 02:16
もちろん、3台以上のPCを並べてコンテンツを連動させて見ることもできます。
この例では、4つのPCを並べて配置しています。
こうなると単なるノートPCが並んでいるだけで、ブロックぽく見えないのが残念ですね。

投稿者 nagao : 00:04 | トラックバック

2006年10月09日

Soya: メタデータを柔軟に扱う仕組み

IPA未踏ソフトウェア創造事業で僕が採択したプロジェクトの成果に関するビデオブログの3つ目です(もちろんご存知だと思いますが、以下のサムネイルをクリックするとビデオサイトに移動して該当するシーンを閲覧できるようになっています)。

任意のコンテンツにメタデータ(つまりデータに関するデータ)を付与して検索や分類等に用いることは、最近ではあたりまえのことになっています。
たとえば、ブログエントリーやイメージやビデオにタグを付けて分類・整理するというのも、メタデータによるコンテンツ管理の一種です。
しかし、以前に設計したメタデータに新しい属性やデータ構造を追加したいと思うこともあるでしょう。
たとえば、以前に付けたタグに多義性があることがわかったとき(たとえば、SBっていったら何を想像しますか)、どちらの意味なのかはっきりさせたいことがあるでしょう。
その場合、タグはそのままにして、補足属性としてその多義性を解消する新たなタグ(あるいはカテゴリー)を加えておきたいと思うでしょう。
そういうことをやりたくなったときに、メタデータをもっと柔軟に拡張する仕組みがあると便利だと思います。
また、あるサイトのコンテンツに付けたタグと別のサイトのコンテンツに付けたタグが同じものの一覧を作りたいと思ったときに、同じプログラム(スクリプト)をそれぞれのサイトに適用して処理できれば作業も楽になるでしょう。

それらのことを解決するための仕組みが、ここで紹介するSoyaと呼ばれるメタデータプラットフォームです。
ここでは、メタデータの記述形式としてRDF (Resource Description Framework)と呼ばれるものを採用しています。
RDFは一般的なグラフ構造を表現する形式なのでメタデータを柔軟に拡張するには比較的適しています(オーバースペックだという意見もあるようですが)。

では、Soyaの利用例を示すビデオについてご紹介します。
このビデオでは、前半にスライドを使ったシステムの概要説明、後半にデモ映像が収録されています。
ここでは、デモの内容について説明します。

知識情報共有プラットフォームSoya : 01:56 - 02:05
Soyaを使って、Webページにタグを付けて検索可能にするシステムが簡単に作れます、というデモです。
Webプログラミングに慣れていないと、この先は見てもよくわからないかも知れません。

知識情報共有プラットフォームSoya : 02:05 - 02:27 知識情報共有プラットフォームSoya : 02:05 - 02:27 知識情報共有プラットフォームSoya : 02:05 - 02:27
メタデータを使ってやりたいことに関連するBean(プログラムとデータ構造を一緒にした再利用可能なコード)を検索します。
検索するときに名前をコンプリーションしてくれるのが便利ですね。

知識情報共有プラットフォームSoya : 02:27 - 02:55 知識情報共有プラットフォームSoya : 02:27 - 02:55
メタデータを処理するモジュールを、先ほど検索したBeanを使って作成します。
ここではタグとそれを付けたWebページ(のURL)をデータベースに保存して呼び出せるようにするプログラムを作成しようとしています。

知識情報共有プラットフォームSoya : 02:55 - 04:07 知識情報共有プラットフォームSoya : 02:55 - 04:07
モジュールのソースコードをサーバー上で(つまりWebブラウザを使って)編集します。
ここでもクラス名やメソッド名がコンプリーションしてくれるのがよいですね。
ちなみに、プログラミング言語はPHPです。

知識情報共有プラットフォームSoya : 04:07 - 04:29 知識情報共有プラットフォームSoya : 04:07 - 04:29
プログラムのテストもサーバー上で行えます。
こういう仕組みはクイックにコードを書いて動作を確認できるのでとても便利ですね。
クイックに実装・運用できることをアジャイルっていうんでしたっけ。

知識情報共有プラットフォームSoya : 04:29 - 04:53 知識情報共有プラットフォームSoya : 04:29 - 04:53
作ったモジュールを利用するアプリケーションを作成します。
要するに、Webページ(のURL)にタグを関連付けて保存するモジュールができたので、Webブラウザからそのモジュールを呼び出して利用するプログラムを書いてみようということです。

知識情報共有プラットフォームSoya : 04:53 - 05:59
先ほど作成したモジュールを利用するJavaScriptを書きます。
RDFをよく知らなくてもそのデータを利用するコードが書けるのは助かりますね。

知識情報共有プラットフォームSoya : 06:01 - 06:22 知識情報共有プラットフォームSoya : 06:01 - 06:22
さて、完成したアプリケーション(JavaScript+PHPモジュール)を動かしてみます。
あるページにタグを付けてみようということです。

知識情報共有プラットフォームSoya : 06:22 - 06:40 知識情報共有プラットフォームSoya : 06:22 - 06:40
ちゃんと保存されているか確認します。
タグで検索してみたら、先ほどのページのURLが出力されました。
まあ、この例の処理は非常に単純なものなのでありがたみがわかりにくいですが、プラットフォームがあるおかげで実装がかなり楽になるということが言いたいわけです。
複数のサイトや異種コンテンツにまたがるようなアプリケーションを開発するのも容易でしょう。

知識情報共有プラットフォームSoya : 06:46 - 06:49
Soyaに関する詳細は、ここをご覧ください。

投稿者 nagao : 01:27 | コメント (254) | トラックバック

2006年10月07日

DashSearch: Dashboard Widgetの新しい使い方

前回に引き続き、今回もIPA未踏ソフトウェア創造事業で僕が採択したプロジェクトの成果をご紹介します。

以前にもこのブログで触れましたが、Mac OS X Tiger/LeopardのDashboardは、デスクトップをフォアグラウンドとバックグラウンドに明確に分け、仕事のやり方にメリハリをつけることができるものです。
たとえば、何か調べものをしたりアクセサリソフトを動かしたりするときはバックグラウンドで、文章やプログラムを書いたりプレゼンテーションの準備をするときはフォアグラウンドで行うのがよいだろうということです。

バックグラウンドの機能の一つとして、フォアグラウンドの作業内容を暗黙的に記録し再現可能にするというものが考えられます。
また、バックグラウンドでの作業はフォアグラウンドの仕事の内容に関する属性としても機能します。
たとえば、文書作成中に何らかの調べもの(辞書等の検索)を行ったならば、その検索キーワードはそのときの仕事の内容を想起する有用な手がかりになるでしょう。
また、バックグラウンドはフォアグラウンドに比べてはるかにマルチタスクなので、同時に行っているさまざまな小さい仕事が存在します。
たとえば、英和辞書と国語辞書、Webあるいはデスクトップ検索、メモ、スケジュール管理、さらには、作業しながら聞いている音楽プレイヤの操作(曲を選んだり歌詞を閲覧したり)なども同時に行われているでしょう。
それらのバックグラウンドタスクをすべて仕事の内容あるいは状況と関連付けて、記憶の想起(つまり検索)に役立たせることができると思われます。
これを(バックグラウンドの)環境(に基づく)検索と呼びます。
ここで紹介するDashSearchは、この環境検索のための一つのツールです。

これから、「DashSearch~Widgetが連携するとわりと楽しくなるよ~」というビデオを紹介します。
このビデオには音が含まれていないのと、スクリーン上の文字が小さすぎて読めないという問題がありますが、このシステムの雰囲気は十分に伝わるものになっていると思います。

DashSearch : 00:02 - 00:04
実はDashSearchという名前はすでに他のところで使われているようです。
しかし、覚えやすくてなかなかよい名前ですね。

DashSearch : 00:04 - 01:20 DashSearch : 00:04 - 01:20 DashSearch : 00:04 - 01:20
Spotlight Widgetを使ったファイル検索の例です。
さらに、カレンダーWidgetを使って作成日の指定をして(たとえば、24日から26日までに作られたファイルという具合に)、候補を絞り込むことができるようです。
このとき、カレンダーWidgetで条件を設定後に、Spotlight Widgetに重ね合わせるという操作をします。
これは後述するWidgetの連携と同じ仕組みです。
また、同じカレンダーWidgetを使って、選択したファイルの作成日を確認することもできるようです。
DashSearchで利用可能なWidgetは既存のものに少し手を加えなければならないようですが、Widgetにはソースコードが含まれているので(プラグインは除く)、比較的簡単にDashSearch用に拡張することができるでしょう。

DashSearch : 01:42 - 01:54 DashSearch : 01:42 - 01:54
通常のデスクトップだと、ファイルを確認しながら開くときにウィンドウをいちいちよけるのが面倒くさいので、何とかしようということのようです。

DashSearch : 02:02 - 02:16 DashSearch : 02:02 - 02:16 DashSearch : 02:02 - 02:16
DashSearchだと、Dashboardが半透明でフォアグラウンドと重ねられている特性を活かして、Dashboard上のファイルアイコンをクリックして表示されるファイルの内容を確認しつつ、ウィンドウをよけずに連続でクリックできる、という点を強調しています。
まあ、もっともな機能ですね。

DashSearch : 02:23 - 02:29 DashSearch : 02:23 - 02:29 DashSearch : 02:23 - 02:29
ファイルアイコンがごちゃごちゃしてきたら、簡単に非表示に切り替えられるようです。

DashSearch : 02:35 - 02:59 DashSearch : 02:35 - 02:59 DashSearch : 02:35 - 02:59
Widgetの連携による連続的な処理の例です。
2つのWidgetをくっつけると、テキスト情報およびメタデータが伝達される仕組みになっています。
Widget内の任意の文字列を選択して、別のWidgetにくっつけるとその文字列で検索することもできるようです。

DashSearch : 03:07 - 03:23 DashSearch : 03:07 - 03:23
連続的な検索の例その1。
Widgetをくっつけたままで、複数箇所を連続的に選択して検索できるようになっています。

DashSearch : 03:36 - 03:50 DashSearch : 03:36 - 03:50 DashSearch : 03:36 - 03:50
連続的な検索の例その2。
フォアグラウンドのウィンドウ上で調べたい文字列を選択してDashboardに移行すると、Widgetにコピーされ検索に利用可能になるようです。

DashSearch : 03:50 - 04:02 DashSearch : 03:50 - 04:02
文字列のコピペWidgetを辞書Widgetにくっつけたままにしておくと、Dashboardに移行するたびにフォアグラウンドで選択した単語を調べることができるようです。

投稿者 nagao : 09:17 | トラックバック

2006年10月06日

Willustrator: 絵(イラスト)のオープンソース化

僕は、IPA未踏ソフトウェア創造事業のプロジェクトマネージャを2年間やりました。
僕が採択したプロジェクトの成果の一部をこれからビデオブログで紹介していきたいと思います。

Web上で絵を共有するこれまでの仕組みは、あくまで画像としての絵を共有するものでした。
しかし、もし絵を書く過程や絵の構成要素なども共有できれば、その絵をよく知り利用するためには非常に有益でしょう。
つまり、完成形(プログラムの場合は実行形式)だけでなく作成手順や構成要素(プログラムの場合はソースコード)を共有する仕組みがあるととても便利だと思われます。
このような仕組みによって絵に関わるデータを共有することを「絵のオープンソース化」と言います。

この「絵のオープンソース化」を提唱した開発者が、そのアイディアを具体化したものが、ここで紹介するWillustratorです。
このシステムの基本は、名前からも推察できるように、Webブラウザ上で利用可能なドローツールです。
マウス等でフリーハンドで書いたベジェ曲線をうまく処理する工夫などが盛りこめられていて、なかなか使い勝手がよいです。

特に興味深い機能は、ある絵を元にして別の絵を派生させることが簡単にできることです。
これは、ドローツールだから当然のことかも知れませんが、ネット上でいろいろな人の描いた絵をいろいろいじりながら自分なりの絵を仕上げていくことができます。
このような仕事の仕方を一般にブリコラージュ(bricolage)と呼びます。
ブリコラージュは手元にある資源や道具を使って現在の目的に合うように作り変えていくことですが、こういうことが簡単にできるかどうかが創作意欲に大きく影響を与えると思われます。

Willustratorでは、絵の派生の様子は、簡単な系統図として見ることができ、自分の作成した絵がどのように変化していったかを確認することもできます。
このように自分の作品が自分の手を離れて成長していくさまが見られるのもとても面白いことでしょう。

これから、Willustratorの使い方の説明ビデオについて紹介します。

Web上で使えるソーシャルなドローツール - Willustrator - の使い方 : 00:00 - 00:03
「ソーシャルなドローツール」というコピーはなかなかいいですが、Willustratorというネーミングはもうひとひねり欲しかったですね。
Illustratorがあまりにも有名なソフトなので、WebのWを頭に付けただけではちょっとインパクトが弱いような気がします。

Web上で使えるソーシャルなドローツール - Willustrator - の使い方 : 00:07 - 00:29 Web上で使えるソーシャルなドローツール - Willustrator - の使い方 : 00:07 - 00:29 Web上で使えるソーシャルなドローツール - Willustrator - の使い方 : 00:07 - 00:29
WillustratorへのログインはSynvieと同様、はてなの認証APIを使っていますので、はてなのユーザー名とパスワードを入力する必要があります。
ログインすると、自分のホーム(自分の絵の一覧)へ行きます。
そして、画面の上の方にあるCreate New Imageというボタンを押して新しい絵を作成します。
このあたりはシンプルでいいですが、ソーシャルなツールというくらいなのだから、他の人がどんな絵を書いているのか、最近の状況がすぐわかるようになっているともっとよいと思います。

Web上で使えるソーシャルなドローツール - Willustrator - の使い方 : 00:35 - 01:24 Web上で使えるソーシャルなドローツール - Willustrator - の使い方 : 00:35 - 01:24 Web上で使えるソーシャルなドローツール - Willustrator - の使い方 : 00:35 - 01:24
最もよく使うと思われる四角ツールですが、よくできています。
画面の右側のプロパティパネル(これは編集対象を選択すると表示されます)を使って図形の色を変えたり、線の色や太さを変えられるというのは割と普通ですが、図形をダブルクリックすると中にテキストを書けるようになるというのはよいアイディアだと思います。

Web上で使えるソーシャルなドローツール - Willustrator - の使い方 : 01:31 - 01:41 Web上で使えるソーシャルなドローツール - Willustrator - の使い方 : 01:31 - 01:41
それに、Ctrlキーを押しながらドラッグすると図形をコピーできるというのもなかなか新しいと思います。

Web上で使えるソーシャルなドローツール - Willustrator - の使い方 : 01:41 - 02:06 Web上で使えるソーシャルなドローツール - Willustrator - の使い方 : 01:41 - 02:06
さらに、プロパティの選択で四角を丸に簡単に変更できるというのも(よく使うかどうかはわかりませんが)よいですね。
もちろん、初めから丸(楕円)を書きたい場合もあるでしょうから、当然それもサポートされています。

Web上で使えるソーシャルなドローツール - Willustrator - の使い方 : 02:17 - 02:38 Web上で使えるソーシャルなドローツール - Willustrator - の使い方 : 02:17 - 02:38
より画期的なのがこのポリゴンツールです。
すでに描いた図形の任意の線上でaを押しながらクリックすると頂点を追加できるようになっています。
このビデオのようにシンプルな図形を加工して複雑なものにするのに有効でしょう。

Web上で使えるソーシャルなドローツール - Willustrator - の使い方 : 03:20 - 03:40 Web上で使えるソーシャルなドローツール - Willustrator - の使い方 : 03:20 - 03:40
ベジェ曲線の処理もよくできています。
点を選択して、ハンドルと呼ばれるベジェ曲線をコントロールする点をドラッグするとハンドルが伸び、曲率が変えられるようになります。
また、Ctrlを押しながらハンドルを動かすと反対側のハンドルも対称に動くのでなめらかな線になるようです。

Web上で使えるソーシャルなドローツール - Willustrator - の使い方 : 03:50 - 03:58 Web上で使えるソーシャルなドローツール - Willustrator - の使い方 : 03:50 - 03:58
Ctrlを押さずにハンドルを動かすと折れた線になるようです。

Web上で使えるソーシャルなドローツール - Willustrator - の使い方 : 04:03 - 05:02 Web上で使えるソーシャルなドローツール - Willustrator - の使い方 : 04:03 - 05:02
グリッドを表示して、厳密な図を描くこともできるようになっています。
キャンバスのグリッド設定をオンにするとグリッド線にスナッピングするようになります。
このビデオのように対称なハートマークも簡単に描けるようです。

Web上で使えるソーシャルなドローツール - Willustrator - の使い方 : 05:15 - 05:30 Web上で使えるソーシャルなドローツール - Willustrator - の使い方 : 05:15 - 05:30
フリーハンドで線を描いても、ちゃんとベジェ曲線になるので描いた後でも簡単に編集できるようです。
このへんもよくできています。

Web上で使えるソーシャルなドローツール - Willustrator - の使い方 : 06:10 - 06:35 Web上で使えるソーシャルなドローツール - Willustrator - の使い方 : 06:10 - 06:35
当然の機能ですが、細かい部分の編集のためにキャンバスを拡大できるようです。

Web上で使えるソーシャルなドローツール - Willustrator - の使い方 : 06:59 - 07:37 Web上で使えるソーシャルなドローツール - Willustrator - の使い方 : 06:59 - 07:37 Web上で使えるソーシャルなドローツール - Willustrator - の使い方 : 06:59 - 07:37
絵の任意のパーツがアクセス可能なことから、部分的なコピー&ペーストで絵が描けるのはありがたいことです。

Web上で使えるソーシャルなドローツール - Willustrator - の使い方 : 07:47 - 08:34 Web上で使えるソーシャルなドローツール - Willustrator - の使い方 : 07:47 - 08:34 Web上で使えるソーシャルなドローツール - Willustrator - の使い方 : 07:47 - 08:34
当然、描いた絵を他のWebツールで使えるようになっています。
たとえば、このビデオでは自分のブログに絵を貼り付ける例を紹介しています。
Synvieと同様、HTMLのソースが生成されるのでそれをコピペすればよいようです。

Web上で使えるソーシャルなドローツール - Willustrator - の使い方 : 08:38 - 09:01 Web上で使えるソーシャルなドローツール - Willustrator - の使い方 : 08:38 - 09:01 Web上で使えるソーシャルなドローツール - Willustrator - の使い方 : 08:38 - 09:01
絵の派生は、自分や他人が描いた絵をまるまるコピーしてさらなる工夫を凝らしていくことによって行われます。
派生によって作られた絵をリンクで辿って見たり、元になった絵を辿って見たりもできるようです。
このあたりがソーシャルなツールであるゆえんでしょう。
絵を派生して新しい絵を描くには絵の下にあるCopyボタンを押すと、その絵がコピーされ編集できるようになるようです。

Web上で使えるソーシャルなドローツール - Willustrator - の使い方 : 09:09 - 09:32 Web上で使えるソーシャルなドローツール - Willustrator - の使い方 : 09:09 - 09:32
ここでは、コピーした絵に色を塗って別の絵にするという例を紹介しています。

Web上で使えるソーシャルなドローツール - Willustrator - の使い方 : 09:43 - 10:07 Web上で使えるソーシャルなドローツール - Willustrator - の使い方 : 09:43 - 10:07
WillustratorはAll Rights ReservedならぬSome Rights Reservedで知られるCreative Commonsのライセンスの仕組みを取り入れています。
ライセンスの条件は次の2つに固定されているようです。
(1)帰属(Attribution):クレジットさえつければ自由に派生できる
(2)同一条件許諾(Share Alike):派生した絵も同じライセンスになる

つまり、Willustratorでは、クレジットを明記し同一条件で配布する場合に限り、自由に派生した作品を作ることができるようにしているのだそうです。

ちなみに、絵の下にはライセンスロゴとクレジット(原作者や改変者の名前)が自動で入ります。
また、Creative Commonsライセンスロゴをクリックするとライセンスの詳細を見ることができます。

Web上で使えるソーシャルなドローツール - Willustrator - の使い方 : 10:11 - 10:14
Willustratorのサイトはここです。
サイトデザインはかなりそっけないですが、下手にごてごてしているよりはだいぶマシでしょう。

投稿者 nagao : 02:06 | コメント (388) | トラックバック

2006年06月26日

ビデオ「研究室紹介」の紹介

ちょっと内容的に古くなってしまった感がありますが、僕のいる研究室の紹介ビデオを紹介します。 1年以上前に撮影されたものなので、いくつか現状とは異なる内容もあります。 それらについても指摘しています。

このビデオは、名古屋大学 情報科学研究科 長尾研究室の紹介ビデオです。
2005年4月頃に撮影されたものです。

00:18 ~ 00:20
冒頭で僕がちょっと挨拶をしています。
撮影中何回かNGを出してしまいました^^;;
所属は、名古屋大学 大学院情報科学研究科 メディア科学専攻になっています。
もちろん、これは正しいのですが、僕の本務は情報メディア教育センター 情報メディア基礎系というところです。
大学院情報科学研究科は兼務です。
まあ、どうでもいい話ですが。

01:04 ~ 01:06
最初に、ディスカッションマイニングという研究について説明しています。
ディスカッションマイニングという名前は、僕が考案したものですが、実は、IBMの研究所にいた頃に一度この名前を使っています。
そのときは、主にメーリングリストなどのオンラインディスカッションから何らかの知識を発見するという研究でした。
今回は、対面式で発表形式のミーティングの情報を詳細に記録して、やはり何らかの知識を発見するというテーマになっています。
メール等に比べるとはるかにむずかしい問題になっていますが、ちょっとした工夫をいろいろ取り入れて、何とか情報的に扱える問題にしています。

02:12 ~ 02:14
研究室内のオープンスペースであると同時にミーティングスペースである空間を最大限に活用してデータの表示と収集を行っています。
このビデオでは、カメラを参加者用に2台、スクリーン用に1台使っていることになっていますが、現在では発表者以外の参加者用に1台、発表者用に1台(それ以前はこの区別がなかった)、スクリーン用に2台(内1台はレーザーポインタの解析用)用いています。
マイクは、360度の指向性(要するに無指向性)を持つタイプを2台(1台は予備)使っています。

02:38 ~ 02:40
僕たちのミーティングの最大の特徴は、この札(議論札と呼ばれています)を使っていることでしょう。
このときは3枚の札がありましたが、現在では2枚です。
また、RGB3色のボタンを持つボタンデバイス(d-Buttonと呼ばれています)も併用しています。
これらの入力デバイスは、ミーティング中に、自動解析が困難なメタ情報(誰がいつどんな種類の発言をしたか。発言者以外の参加者はそれに同意したか。多くの人が重要だと思った発言はどれか。など)を取得するために用いられます。

04:16 ~ 04:18
この研究室で特徴的なもう一つの研究テーマは、この個人用知的移動体(personal intelligent vehicle)というものです。
個人用に特化され、情報技術で強化された乗り物を一から作ってみようと思ったのです。
試行錯誤を繰り返しながら8台の試作機を設計・開発しました(ただし、現在動かせるのは3台のみ)。
やはり、僕らの世代には、搭乗型のメカに対する何らかの憧れがありますね。

04:38 ~ 04:40
僕はこの移動体にAT (Attentive Townvehicle)という名前をつけました。
タウンビークルとは街中で気軽に乗れる乗り物という意味の造語です。
アテンティブというのは、何らかの対象に注意を払って行動する、つまり気配りをする、という意味です。
つまり、人間に気配りをするカジュアルな乗り物という意味の名前です。
ATの特長は、搭乗者である人間や周囲の環境への適応、さらに他のATとの協調を目指した機能があるということです。
具体的には、物理的環境をセンシングして減速や停止等の自動制御を行う機能、搭乗者を識別し、搭乗時には操縦パラメータの自動設定、降車時には人間の後を追尾する機能(ヒューマントレーサと呼ばれています)などがあります。
また、Webを使った遠隔操作機能、AT間で制御情報を送り合って、協調的に動作する機能もあります。
ちなみに、Javaアプレットを使ったATのコンソール画面は大幅に変更されています。
さらに、映像や位置情報などを暗黙的に記録して、人間の行動記録を自動的に作成する機能も実現されています。

05:24 ~ 05:26
この研究室の3つ目の重要な研究テーマとして、コンテンツへのアノテーションとその応用というものがあります。
これは僕が以前にSony CSLやIBMで行っていた研究がベースになっています。
研究室の学生たちによって、さらなる発展が遂げられつつあるのは喜ばしいことだと思っています。

05:43 ~ 05:45
これはSynvieの原型であるオンラインビデオアノテーションシステムです。
Synvieより複雑なアノテーションを作成できます。
いわゆるソーシャルタギングをより高機能にしたようなものです。
でも、結構面倒なのでユーザーが敬遠するだろうということで、Synvieではアノテーション機能が大幅に簡略化されました。

06:51 ~ 06:53
音楽へのアノテーションも重要なテーマの一つです。
楽譜へのアノテーションは、教育目的にも使えますし、楽曲の検索や再構成にも応用できます。
また、音楽アノテーションを利用した、ユーザーに適合したプレイリストの生成に関する研究も行われています。

07:59 ~ 08:01
最後まで見ていただいてどうもありがとうございます(このブログからビデオを見た人は、ビデオの一部しか見ていない人が多いとは思いますけど)。
研究室WebサイトのURLは、以下の通りです。
http://www.nagao.nuie.nagoya-u.ac.jp/

Read : 長尾研究室紹介ビデオ

投稿者 nagao : 22:44 | トラックバック

2006年06月25日

ビデオ「Web2.0時代のビデオコンテンツ」について(後編)

前回のエントリーの続きのビデオブログエントリーです。 前回同様サムネイル画像にはほとんど情報がありませんので、画像をクリックしてビデオを見ていただけるとうれしいです。

このビデオは、Synvieの特長と機能、さらに実証実験の内容とその後の展開について述べています。
われながら、いまいち滑舌(かつぜつ)がよくないですが、映像を見ながら聞けばだいたい何を言っているのかわかると思います。

00:12 ~ 00:14
Synvieはビデオコンテンツを共有・配信するだけでなく、ビデオにさまざまなアノテーションを付与するための仕組みです。
それによって、ビデオを中心としたユーザー間のコミュニケーションが活性化されると考えています。
それは、口コミによってビデオのオーディエンスを低いコストで広く集めることに貢献すると思います。

01:24 ~ 01:26
Synvieはビデオをブログのようにします。
それはまず、ビデオ全体あるいはその任意のシーンに対して、以下の3つの機能を持たせることです。
1.パーマリンクを設定できること。
2.コメントや属性などを付与できること。
3.トラックバック(被引用リンク)を付与できること。
また、ビデオ全体に対して、以下の機能を持たせることです。
4.RSS(あるいは、XML Feed。つまり更新・追加情報を含むメタデータ)を生成・配信できること。

02:34 ~ 02:36
Synvieの機能について述べています。
基本的にSynvieはビデオ共有システムなので、ユーザーからのビデオ投稿を受け付け、それを管理・配信し、アクセス解析をすることができます。

04:00 ~ 04:02
さらに重要な機能として、ビデオを中心としたコミュニケーション機能があります。
それは、具体的には次のものです。
1.ビデオの視聴中にユーザーが、シーンに対するツッコミ(ショートコメント)を書くと、その人のニックネーム(ユーザーによって登録されたもの)とツッコミの内容を、該当するシーンの視聴時に表示する機能。
2.シーンのイメージ内の任意の領域に対して、同様にツッコミコメントを書いて共有する機能。
3.ツッコミやチェック(コメントなしの単なるマーキング)に基づいてブログエントリーを書いてビデオとリンクする機能。

06:04 ~ 06:06
今回行っている実証実験について説明しています。
最も重要なのは十分に多くのビデオアノテーションが収集できることですが、そのためには、ビデオコンテンツが気軽に投稿され、それについてのブログが書かれるという習慣がそれなりに浸透することが重要です。

08:33 ~ 08:35
実証実験がある程度うまくいった場合のその後の展開についての話です。
まず、ビデオを効率よく検索するための仕組みを実装して公開します。
また、ビデオブログをさらに作成しやすくするためのツールも開発して提供します。
さらに、この実証実験サービスの結果に基づいて、次のような新しいビデオの活用法を実現したいと思っています。
それは、意味的内容を考慮した、シーン単位のピンポイントな検索、そして、意味的な関連度に基づくビデオの自動編集や合成です。

Read : Synvie実証実験に向けて ~ Web2.0時代のビデオコンテンツ ~ その2

投稿者 nagao : 22:23 | コメント (2) | トラックバック

2006年06月24日

ビデオ「Web2.0時代のビデオコンテンツ」について(前編)

さっそくシンビィ(前回のエントリーを参照)を使ったビデオブログのエントリーを書いてみました。 しかし、サムネイル画像にはほとんど情報がありません。できれば、ビデオもご覧ください(サムネイル画像をクリックするとビデオのページに移動します)。

これは、Synvieの一般公開にあたって、その思想的背景にあるWeb2.0というコンセプトに関連して、いろいろなところで言われている話のまとめと僕なりの考えを述べているビデオです。

00:24 ~ 00:26
CGM (Consumer Generated Media)と呼ばれるようになった、一般の人が作って公開しているコンテンツの重要性が高まっているという話です。
これは結構いろいろな人が指摘しているので、いまさら僕が偉そうに述べることではありませんが。。。

02:40 ~ 02:42
体験をコンテンツにして共有することは本来誰にでもできることであり、まさにそういうコンテンツが今以上に高い価値を持つことになるだろうという話です。
プライバシーとトラストに関しても少し触れています。

04:44 ~ 04:46
Synvieに限らず、僕がアノテーションという研究の文脈でよく述べていることですが、多くの人の少しずつの貢献の積み重ねによって、自動処理にも適した知識の総体をWeb上に作り上げていくことができるという話です。

07:08 ~ 07:10
フォークソノミーの先にあるものとして、フォークセマンティクスという言葉を考えてみました。
そのためのアプローチに意味的アノテーションというものがあります。
これは集合知をさらに高度にして、機械にも利用可能な知識にするために非常に重要なものだと考えています。

08:41 ~ 08:43
多少我田引水的な主張を交えながらWebテクノロジーの未来を概観しています。
コンテンツへの意味的アノテーションによって、言葉の意味の自動処理を目指そうという話をしています。
また、マッシュアップの先にあるものとして、コンテンツやサービスの意味的内容を考慮した統合という話もしています。
これは、最近話題になり始めたセマンティックWebサービスと似ている話かも知れません。

10:49 ~ 10:51
コンテンツやサービスをユーザーに適合するものに自動的に変換するためのトランスコーディングという技術と、その精度を実用レベルに上げていくためにコンテンツに意味的アノテーション(およびその他のメタ情報)を加えて知的コンテンツとする技術が重要だという話をしています。

Read : Synvie実証実験に向けて ~ Web2.0時代のビデオコンテンツ ~ その1

投稿者 nagao : 21:00 | コメント (45) | トラックバック