災害救助と可視光通信
2011年 3月11日、日本は大変な災害に襲われ、我々は、今世紀世界でも歴史に残る大惨事を目の当たりにしました。被災された方々にお見舞いと安息をお祈りします。
ですが、我々は今後、世界の歴史に残る復興に立ち会えるはずでしょう。きっと。
ただ残念な事に、今おきている災害に、現状の可視光通信が出る幕がないのが歯がゆいところです。しかし、将来の災害においてこの技術が貢献できる方法ということで、考察してみようと思います。(あと自分がサラリーマン技術者ではありますが、開発者個人として、必ず取り組みたい領域ですので、ここに書いてしまって自分にプレッシャをかけとくという、企みでもあります。)
さて、報道を見聞きしたりググったりのした中で、現状の災害対策の中の問題点の中から、「可視光通信技術がぴったりの解決になる?」かもしれない事例がいくつか眼にとまりました。
「ヘリにこちらの存在を伝えたい、切迫した状況を伝えたい」というようなケースです。
このように、航空機など、見てくれた人に対して、アイコンタクトが取れてる的な状況なのに、伝えたい事がなかなか伝えられないということがあるようです。
上記の例の場合、建物の屋上という立地条件と、現場の方の機転で屋上に大きな文字をつくることで、気づいてもらえたようですが。
こういうとき、仮にお互いに携帯電話をもっていても、電話番号をやりとりできないし電話できません。(そもそも、たぶん、携帯インフラが復活してないと思われますが)
携帯電話じゃなくてトランシーバならもっと簡単ですが、それだって、あらかじめ、「このチャンネル(周波数)を使おうね!」って約束しとかないとだめです)
そこで、このような、地上と上空ヘリとのコミュニケーションを考えてみましょう。
- 緊急性が高いので片方向でも良い
- 距離は数百m単位、かつ見通し関係で、肉眼での確認作業の中で行われる。
- (もしかしたら)携帯電話など通信インフラが機能していない場合がある。
- 伝えたい情報量は少ない。文字にしたら数十文字でも良い。
(『見捨てられている避難グループです!物資不足。300人」「急病人1名!要手術。即時搬送求む!」あと逆に、『管理済み避難所No.xxx 災害本部登録済み』みたいのがわかってもいいかも)
- そしてそのための準備や常備が現実的であること
という条件の通信があると災害救助に役立つであるようです。つまりこんな感じができたらイイ!ってことです。
見通しで眼でみえているという意味で、可視光通信はまさにうってつけです。
光の直進性と空間分解能は極めて高いので、「リンク確立」=「見通し関係で光を向ける」なのです。電話番号とか周波数チャンネルの確認とかまだるっこしいことは不要です。
そして、遠距離で視界イメージと一致といえば、可視光通信の中でも「イメージセンサ通信」の出番です。
最近の技術開発実績的としても、可視光通信コンソーシアムの「イメージセンサ通信」の実験では、可視光コンソーシアムで灯台を使って、2kmで1kbpsの伝送実験などの実績があります。
陸上自衛隊の滑走路で可視光通信実験
九十九里浜での灯台可視光通信実験(過去レポート-2
海上保安庁さんとやった実験は夜が多いのですが、以下はちょうど以前書いた記事の実験の時、まだ日が出ている夕刻に百mくらいでやった例です。こんなふうに昼間だって、その光が見えるなら遠距離で伝送できます。
このくらいの昼間。ズーム撮影したので、下記の試作機と画角が一致してないです。
試作機の受信画面。昼間ですがちゃんと灯台の点滅の中に仕込まれたテキスト情報を受信できてるところ。
以前テレ東さんにTV取材してもらった時(2007年)でさえ、75bpsと遅〜い伝速度ですが、たった1WのLED懐中電灯を日曜電子工作レベルで改造した送信機で、東京タワーの第2展望台から見通し300mの受信に成功しました。(古い昔話ついでに時間があれば、このTV取材のときの話も懐かしネタでまとめるかも。私のこの変なアイコンの成り立ちの経緯があります)
可視光とイメージセンサ通信の広い実用化と普及においては、光源・照明の話と、少し特殊な受信機(カメラ機器)をどうみんなが持ってもらうかという問題が常にあります。
でも、災害時用設備に特化すると、もしかしたら照明に流用できる、バッテリ駆動の照明を常備して、災害時には簡単な電文を設定してそれを繰り返し出力するような装置は、わりと取り扱いも製造も比較的容易にしかも現実的コストでできるかもしれません。あと、建物の外部照明が非常時に、情報が乗せて光れるってのもいいかもしれません。
(ただし、照明と完全に共用できるかは、設計によります。通信速度の関係で変調のフリッカが見える設定が最適という場合もあり、その場合は、通信と照明を共用することはできません)
いずれにしろ、数をばらまくべき送信側はたぶん割と容易。とにかく受信機が、特殊業務用向けとしても、性能とコストの折り合いのつけ方がポイントかもしれません。
ちなみに、少し規模の大きい避難所が近隣への位置特定のために、もっとパワーを使ったサーチライトを使うという手もあります。
wikipedia:サーチライトこのような強力なサーチライトだと、上空のヘリといわず、地上からも光のランドマークになり(パチンコ屋のように)しかもその光条に情報を載せることができます。
まあ〜本当は、国民全員モールス符号覚えればいんですけどね。でも、可視光通信ならそれをカメラが自動でやってくれるます。
光は古来から多くの「希望」を運びました。これからは、光が「情報」も届け、その情報が「希望」になることを願ってやみません。開発の一翼を担う者として、1日も早い実用化で社会の貢献になればと考えます。
-
- 未来を予測する最良の方法は、未来を自分で創りだすことだ--
[ピーター・F・ドラッカー]
だそうで・・・(「だそうで・・」じゃなく、「です!」だろ >自分)
参考)
災害対応と情報通信
http://www.lascom.or.jp/jichi/data/200715murosaki_siryou.pdf
LEDで音速を可視化してみた
冬休みの自由研究だったのですが、動画編集がめんどうでなかなか上げられませんでした。
昨年秋のMake Tokyo Meeting で、音に反応するLEDスティックが一本100円で売っていて、特に考えもなく、4本買って、何に使うかな〜と思ってました。
で、思い出しのたのが、NHK教育で見た「大科学実験」でやっていた「音の速さを見てみよう」でした。
でもこっちは数は4つ。あんな1km単位はできません。で、そこはハイスピードカメラをつかうことで、ちっぽけにパクって、音速を可視化して、計測確認してみました。
やっつけの動画をYoutubeに上げておきました。
ざくっと作ってみてみると、編集素人もろわかりで、誠に間の悪い編集になっていますが、ご容赦。
ガンダムの光物理(なんでビームが横から見えるのか)
さて、以前の記事「ガンダムと可視光通信」につづいて、またビッグネームあやかりの、記事でございます。
上記事で最後に言及した、SF映画、アニメで散見する、光のビームがなぜか横から見える現象の謎についてです。
とはいえ、SFものにツッコミ入れようと思って、ビーム系兵器をちょっと調べてみたら、結局ただの入門解説記事になっちゃってます。
機動戦士ガンダム 逆襲のシャア. (C)創通エージェンシー・サンライズ
まず、基本のおさらい。(理科の基礎がある人は読み飛ばしましょう)
●光は横から見えない の原則
まず原則。「光は横から見えません。」
難しくいうと、「光は伝搬方向以外にエネルギーを伝えない」し、「(基本的に光は)お互いに相互作用もしません」(※1)です。なので、進んでいる光自体は横に何か出してないし、観測のために、光に光を当てようが後光を焚こうが、その他放射エネルギー当てたりして光を観測することはできないのです。
なお、複数の光路で起きる現象に「干渉」といものがありますが、あれも横から見えるのには使えません。
干渉は、波長とか位相の条件を満たした複数の光によって、光が交わる場所で、強まったり弱まったりが起きる現象です。でも、これが起こる場所は、複数の光源からの光が観測点に届いている場合です。だから、確かに2つの光が交差する地点では、干渉により強弱が観測できますが、そもそも、発見したい光は届いてますので「横から見る」にはあたりません。
そして、干渉が発生しても、その後の光は、まったく何もなかったように、(干渉が起きた事実で、光の波がなんらかの変化をすることなく)光は進んでいきます。だから、光に横から何か光を交差させて、それを見れば・・ということはできません。
でも、ここで疑問を持つ方もいると思います。あれ?でも見えるよ? 光のビーム。なんかビームつうか光条いくらでも見たことあるよ。と思われることがあると思います。
でもこれは・・・・そうです。地球には大気があり、水蒸気や細かいチリにより、「ミー散乱」等々がおきて、本来の光の方向以外に向かう光がたくさん出ます。「チンダル現象」として理科でも出てきました。つまり、物質と相互作用した結果を見てるわけです。
これが、気象的に起きてる場合には、「薄明光線」と言われます。「天使の梯子」なんて名前がついています。(下図)
「天使の梯子」出典: フリー百科事典『ウィキペディア(Wikipedia)』
(これ書くのにちょっと調べて知ったのですが、「レンブラント光線」なんて言い方もあるのですね。カッコいー。さらには、「ヤコブの階段」(つまり amazon:ジェイコブス・ラダー)なんて言い方も。)
ということで、天使の梯子は大気中の散乱現象であり、光と物質の相互作用です。一条の光といえども大量の光子からなっていますから、物質と相互作用して方向が変わる光子の中に、自分の目玉に飛び込んで来るものがあると。で、その横道それるやつらが、連なって見えるので観測者の眼に結局、光条として見えるわけですね。
なお、光の反射のイメージって、ボールがなにか壁にぶつかり跳ね返るイメージかもしれませんが、物理的には一回光子が物質に吸収され、また再放出される現象です。
基本の理科解説が長くなってしまった。話を戻しましょう。
さて、大気中なら光のスジが横から見えるとしても、問題は宇宙戦闘でのビームでの話です。宇宙だと、かなり真空っぽいので、ふつう散乱させるものはありません。
だから、光がいくら満ちていても、自分の方に来る光が無い限り真っ黒です。だから、
(出典:NASA http://www.spaceref.com/news/viewsr.html?pid=28506)
こういう風に宇宙船(というかこの写真はISS:国際宇宙ステーションですが)は、漆黒に浮かび上がるわけです。この写真だと、地球はぼうっと、太陽から受けた光を大気でそこら中に光散乱して光りますから、地球は光って見えます。
でも地球から外で宇宙へ向かう光(この写真左から右に)は、もはや干渉する物質がないので、まっすぐ進んで見えません。
ただ、ISSに当たってそこで散乱した光はこのカメラの方向に飛んでくるわけです。(あとおそらく概ね右から左方向に太陽の光が来てる光も、横からは見えませんが、その光もISSに当たってカメラに飛び込んできて、漆黒の中に明るく浮かび上がるわけです。
●宇宙兵器の光が横から見える!のは?
ということで、「宇宙戦闘なら、ビームは横から見えないはず」となります。 (まあ、モビルスーツとか宇宙船とか爆発したりすれば、相当まわりに大小の物質が撒き散らされているので、散乱する物質がたくさんありそうですが、そこはさておき)
が、あれ?SF映画とかアニメ、ビームだのサーベルだの横からバリバリ見えてますよね。では、今度はそこを考察。
wikipedia:ビームライフル (ガンダムシリーズ) によると、(ガンダムの)「ビームサーベルは、エネルギーCAPによって縮退寸前の高エネルギー状態で保持されたミノフスキー粒子(一説にはメガ粒子)をIフィールドによって収束し、ビーム状の刀身」ということだそうで…. ミノフスキー物理学がわからない私にはとんとわかりませんが、どうやら、「粒子を収束している」ようです。なので、発光については、蛍光灯と同じようなもののようです。ガラスでなく力場で収束するわけですが。
大同電設株式会社のWeb解説記事から転載させていただいてます。
つまり、ビームサーベルといっていますが、あれはビーム(光束)でなく、集積した物質発光みたいなもんなんで、全方向に光エネルギー出すのは全然OK。問題なしということになります。
なので、そもそも、「え?ビームが横から見える」と疑問に思わなくても良かったと。
そういえば、
で見るように、ガンダムの素早い振り下ろしで、めちゃめちゃ曲がってます。光をだしてるならこんな曲がるわけないですからね。(出展:バンダイ「Air Shock Battle 1/12 ビームサーベル」パッケージより)
確かに考えてみると、ビーム兵器関係って画面見たとき、恐らくたかだか数千とか数万km距離でズギューンとしっかり飛んでいくのが見えているから、もし電磁波であれば仮にターゲットが1万km先でも、約30msで到達するはずで、これはTVだと1コマですから、あんなに「ズギューン」とコンマ何秒も軌跡は見えないはずですから、やっぱりあれは粒子ビームだということがわかります。
そうそう、宇宙戦艦ヤマト、映画未見ですが、あれもTVアニメだとズギューンと光る波動が出ます。
だからあれも、物質を撃っているんでしょうか?
・・ですが、(子供のとき読んだんでうろ覚えですが)テレビアニメ後に読んだノベライズ版だと、波動砲って空間自体に直接影響を与えるような設定になっていて、「撃て〜」とやってから、見かけはなにも起こらず、「?」っていう間のあとに、敵艦隊がゆらっとゆらめいて、空間自体をなんか歪まされちゃって敵宇宙船ドが〜んとなっていた気がします。あれの方が凄いオーバテクノロジーって感じで怖かった気が・・。まあ、絵的にはなんですが。
ところで、ぜんぜん光の話じゃないけど、よく「宇宙で爆発が聞こえるのはおかしいww」ツッコミ見たことあります。「wwまあ勘弁して下さい」みたいなことも、スターウォーズのDVDのコメンタリーで製作者自身が言ってましたが、別におかしく無いと思うんですよね。観測者はなにか宇宙船の中や宇宙服の中にいるわけで、爆発で撒き散らされた物質やエネルギーが船殻をゆらして中の空気を振動させるはずで、自然だと思いますよね。
以上、特に斬新な発見もなかったですが、SFはけっこうちゃんとしてるってことでした。
なお、飛んでいる光のパルスを横から見るって研究はやられていて、
FTOPによる光の計測 とか、高強度フェムト秒レーザーパルスの石英中の伝播
ただ、これらはやっぱり物質雰囲気の中にいれてるんですよね。
以上、いろいろ書き散らしたものの物理ど素人なんで、本当は量子力学もちだすとなにかトリッキーな方法があるんでしょうか?ともあれ、間違いや、ひどい不勉強ありましたら、ぜひご指摘下さい。
※1 訂正しました。不勉強すみません。「電磁波は」を「光は」に修正しました。
電磁波と言ってしまうと、ガンマ線くらい周波数短く(エネルギーを高くすると)ふつうに光子同士の衝突で他の素粒子が創成されたりしますので、誤りです。なお、可視光程度の波長・エネルギーの場合でも、非常に低い確率ですが光子同士が相互作用する場合があるようです。
テクノ手芸と可視光通信
11月20・21 東京大岡山の東工大で行われたMTM06(Make: Tokyo Meeting06) に行って来ました。
いつもMake:は気にしていたのですが、恥ずかしながら初めての参加です。
とにかくいろいろ、面白かったり、感動・感服炸裂の素晴らしいイベントでした。
まあ、いろいろ感じたところはあるのですが、
この記事では、特に、「テクノ手芸」の話題を取り上げます。
というのも、テクノ手芸ゾーンの MechaRoboShopさんのブースで、LEDを使ったテクノ手芸のキット、アニオマジック・スキーマのセットを買ってきたもんで。
http://www.mecharoboshop.com/mtm06/
LEDを4つ、メインのコントローラであるスキーマ1つ、音に応じて発光を制御できるマイクセンサと導電糸のセットです。しめて、¥5千ちょっとでした。(そのうちで値がはるのがスキーマが¥1980、サウンドセンサーが¥1450)
まあ、テクノ手芸ファンというより、採用技術に惹かれて衝動買いなんでちょっと不純なユーザ・・・
・アニオマジック・スキーマ の概要
このスキーマですが、手芸の人がLED(とセンサ)を使った部材を使えるように、いろいろと考えています。
1.回路は、導電糸で縫う。
2.LEDなどの部品は、バス化されている。
ID付与されたLEDパーツでレイアウトを考えればよいだけ。
3.LEDの発光パタン(やセンサへの応用)は自由にプログラムできる。
・・・そして、・・・
4.これがすごい−1
開発環境はクラウド!!(と言っていいと思う)ブラウザで発光パタンや速さ等々を選んで、書き込むだけ。ソフトのインストールは一切無し。
5.これがすごい−2
書き込みのワイヤレス方式は・・なんと、可視光通信(と言っていいと思う)ワイヤで繋ぐ必要も、無線のチャンネルを合わせる必要も、ペアリングの設定なんかもない! ディスプレイが送信機になるのです。
この可視光通信によるプログラムの様子は、下記のMechaRoboShopさんのYoutube動画で見てください。
画面の点滅パタンを光通信としてディテクターで受信させます。
このアイディアでは、90年代に「Timex Data Link」という、MSとTimex共同で開発された、Outlookのデータを腕時計に入れるというのがありましたねぇ。持って無かったけど、ちょっと欲しかった。
あれは、今考えれば、いわゆる情報端末機器との通信で、データ量も少ないとはいえそこそこだし、非常に固定的な通信関係だから、あんまり、光通信である本質的な必要性はなかったわけです。おそらく当時の技術、コスト条件で、伝送データ量とワイヤレス実現コストのバランスポイントではあったのでしょうが。後知恵で言えば時代の仇花だったのかも。(まあ、そもそも、スケジュールなどを「意識的にSyncする」ってのが、考え方間違ってるが。)
でも、こういうふうに手芸品の一個一個とか、電波通信するのに設定とか通信時の相手の指定面倒です。(ペアリング設定問題、通信対象指定問題)だから、これから、ちょっとだけ賢くてちょっとだけのデータを扱うものがあふれる時代になって、こういうちょっとした通信という意味で、可視光通信もあたりまえに使うという時代が来るのかも。
・テクノ手芸に挑戦!
いくら可視光通信書き込みが気に入ったと言っても、手芸品になっていてこそ、意味があるというものです。てことで、さっそく、製作入に挑戦。
まずターゲット。服とかカバンとかも考えたけど、いちおう冬だし、日常使う手袋に決定。
次は構想設計。基本的に「インアウト」とかのパタンがあるので、IDの並びを意識します。
一応こんなレイアウトに決定。
必然的に内部の配線は、このようになりました。
(後で追記:よく見たら、センサマイクとLEDのバス少なくとも内側ラインは一筆書きにする必要ないですね。抵抗値も高い糸だし、内側ラインは、中央のスキーマの端子からセンサマイクとLEDの方に枝分かれさせたほうが、糸も少なく、縫う距離短く、抵抗も小さくていいことづくめな気がする。)
で、私も、間に合わせのボタンつけ位は出来ますが、少しでもしっかりつけようと思い、夕食のカレーなら俺がつくるからと、妻に依頼。
「糸だけど配線だから、接触させちゃ駄目ね、この感じでお願いします。」と図面引き継ぎ&作業指示。
途中、一部の配線ライン終わったところで、途中チェック。未配線のところは、直接ふつうの配線コードなどでつないで、手芸回路側の配線が異常ないか確認。
(手付け半田付けの作業でも、こういう風に、中間段階で、ショートや不導通無しを、確認します。テクノ手芸でも基本でしょうね。)
後述のショート等トラブルありましたが、完成して動作チェック。やった!
これは、iPodtouchのSafariから書き込んでいる様子です。もちろんPCのブラウザからもできます。
点滅スピードからいくとおそらく送り込んでいる情報量は数十Bitと思われます。
・テクノ手芸やってみて思ったこと
いきなり妻に頼み込んだので、素人さんが陥る手芸回路制作上のならではの事がありました。 (もしかするとこれ、MechaRoboShopさんのサイトとかマニュアルとか(当日品切れ?で、もらえなかった)に書いてあるかもの、言わずもがなポイントかもしれませんが。)
1.配線(縫製)の美観優先はちょっと後回しにしたほうがいい
自分がやったら、接触しないようにマージン取って遠回り気味にやるようなとこも、手芸経験者であるがゆえに、手芸としての美観で経路を決めたりされて、少しショートのもとになりました。見えないところは十分離すみたいなことはいるとおもう。
2.極性を間違われる
図面を渡して、「電気回路だからね」っていってたのに、いつのまにか、「こっちで繋いだほうがいいから」って回路を変えられた。(^^; 電気回路である意識はちゃんとしないといけないですね。「むき出しの配線だ」っていってるのに、経路を交差させようとした場合もありました。じっくり説明しないでいきなり、やらせる私も悪い。と言われた。
夕飯作ろうってところで、バタバタと発作的に頼んではいけません。
3.実は配線デバッグはちょっとやりやすい
ショートのところですが、カレーづくりに夢中になっているうちに、途中チェックをいれずに、あっと言う間に妻が仕上げちゃったのですが、上記1.2.のトラブルがありました。つまり、「終わったー」と思ったら、ぜんぜん動かない。つか、ボタン電池熱くなってる・・・という感じで、仕方なくテスターで導通テストすると、LEDつなぐバスの抵抗がゼロ!
(;_;)
で、テスター当てまくってショート箇所をチェック。ここでひとついい事が。この電動糸「10cmあたり7Ω」と比較的抵抗が高いので、ショート箇所は特定しやすかったです。ショート箇所から遠いと、抵抗がでかくなっていくので。
4.糸の終端に注意
で、原因は、接続違いもあったのですが、ショートの原因は、糸の末端を止めるためのダマ、ちょっとヒゲがでますよね。これが基盤裏に回りこんショートしてました。
(これは、「手芸用ボンドを使うと良い」と、@aniomagic_jpさんより、Twitterで御教授頂きました。確かに)
でもこれ、製品として改良したほうがいいと思うのですが、基盤の裏がむき出しなんですよね。妻としては、末端のヒゲは裏に突っ込んで見た目をごまかしたみたいにしちゃったのですが、これで、基盤裏の端子にショートしてたようです。まあ、手芸回路の配線原則に従いやって、末端も手芸ボンド使うと防げると思いますが、基板裏は出荷時に絶縁テープなり(できればモールド)したほうがいいと思いました。
なお、このショートトラブルの間って、ときどき動いたりしたので、とにかくブラウザ書き込みだけやっちゃってみようとしましたが、なかなかうまくいきませんでした。
電圧が不安定だとギリLED動くけど書き込みできないとか?あるのかも。
まあ、ちゃんと回路デバッグ終わったら、ブラウザからの可視光通信書き込みは、うまくいきました。
マイクセンサーの設定はいろいろやったけど、いい感じを設定するのは難しくて、まだ、いい感じがわかりません。
ブラウザも、たまに書き込み失敗します。まだ、コツつかんでないかも。
・実使用感
さっそく完成次ぐ日、会社から帰りながら夜の道で、左手ピカピカさせて帰りました。安全的には有効かも。
あいつは、マイケル・ジャクソンか!(白手袋でないけど)、ドクターアダーの閃光グラブか! って感じになり切って、闊歩。(そういえば、ドクターアダーって今絶版?発禁?らしいですね)
たまーにすれ違った人にどん引きされてる?とかビビりながら楽しく帰れました。
家族はみんな「いつ使うの、まさかいつでも光らせてるの?」「友達に見せるだけだよね?」って心配してた。
巡子さんは可視光通信の夢を見るか? -海保フェア-
2010年10月2日に、東京都立川市の海上保安庁試験研究センターで行われた、「海保フェア」の可視光通信の技術展示で少しお手伝いをしたので、その報告です。
●海保フェアの概要
当日は、大変気持ちのいい秋晴れに恵まれました。写真はちょうど開場時間あたりの模様。開場前にも数十人は並んでいました。まあ、来場者は基本的に一般の方々です。
道の向かいでは、各地の刑務所作業製品展示・即売や取り組みの展示が行われる、「矯正展」が開催され、海保フェアは開所始まって以来の入場者だったそうです。(海保の方の話だと、二千何百人と仰ってました)
建物に入ると、いきなり待ち行列。海猿の影響か、海保グッズ売り場混雑。その後の海保さんのいろんな制服をコスプレして記念撮影コーナーは超混みでした。
で、そういう最初のいくつかの展示や出しものが出てる(おそらく事務関係や会議室の)建物を抜けて、研究、実験棟へ。
ここがうちの試作が展示された、「加工室」って部屋の入り口に鎮座する灯台の灯火。直近で見ると強烈にまぶしい。
で加工室に入った感じがこう。加工室の中には灯台用の前記の灯台向けの巨大なフレネルレンズをつくるとことかがあり、また歴史的な灯台の展示上と工作機械が乱雑に(失礼!)散らばってる工場みたいなスペースが展示場に仕立てられています。wikipedia:フレネルレンズ
この写真にも写っていますが、なんかファミリーとかこの手が好きなオッサンの他に、若い女性のお客さんがちらほらと、意外な割合、そうコレが巡子さん。やはり巡子さんは、海保フェアのような渋いイベントにも来ているようです?
「『海保』にひかれる“巡子”とは」
さて、この海保フェアでは、フォトダイオードを使った可視光通信と、イメージセンサをつかった可視光通信(イメージセンサ通信:ISC)の2種類、合計3展示が行われました。
●イメージセンサ通信の展示について
この加工室には、2展示が行われ、そのうち一つが、うちの試作を使っていただいたイメージセンサ通信。まず、イメージセンサ通信の展示全景はこういう感じ。(お客さんが入る前の様子です)
風景パネルに、2つ、左右の灯台のジオラマに2つ、合計4つチップLEDを仕込んでいます。パネル内の左の緑のブイ、右側の赤の小型灯台です。(ちょうど消灯タイミングで撮ってしまったようです)
灯台と同じ点滅パタンの中に、灯台の名前文字コード列を送信しています。(変調周波数は2kHzちょっと。見た目にはふつうの灯台の点滅です)
ご覧の距離の中で、3mm角ほどのチップLEDが光源ですから、まあ本物のサイズと距離に対してまあまあ、似ている視角度です。実際に、この試作機は九十九里の2km実験に使ったものと同じものです。
で、手前の三脚の上に、受信機としての、イメージセンサ通信試作機+PCが置かれて、自由に首振りが出来るようになっています。通信関係の処理はぜんぶカメラでやるので、PCは表示に使っているだけです。この背中側に、イメージセンサ通信の試作モジュールを配置、接続し、端末をふって、カメラで灯台のほうに向けると、通信受信すると、「ピッ」っと鳴って画面に表示されます。なので、見た目の灯台の点滅に合わせて、「ピッ」っと鳴って、表示に受信した文字が出るという動作です。
右上に、一瞬で受信した「出雲日御碕灯台」 という文字列が出ています。来場者の方の中には、さすが海保に来る方だけあって、このジオラマ見た途端に、「あ、いづもひのみさき灯台ね」と、たちどころに分かる人少なからず。
まあ、間に合わせの試作で、性能や使い勝手上いろいろ課題ありなものでしたが、例えばモニタ画像の表示がけっこうまったりなとことか、逆にお子様たちは、面白がってくれました。
なお、一般の方への説明方法で、「目に見えないカメラの高速点滅のオンオフでデジタルデータを載せます」というと全然伝わらないのですが、「ものすご〜く早く、モールス信号送ってます」というとなぜか、「ああ」とわりと簡単に理解してもらえることを発見。
「ONとOFFだから1と0」といっても、また、「デジタルデータ」って聞いたことあっても、そもそも文字が1/0になるって腑に落ちた理解には、一般の人は、実はもってないんでしょうね?
前に別の記事で書いたと思うけど、「なんで、電波でも赤外でもないのにデータ送れるの?」って言われたこともあるし。
とにかく、ここがわかってもらえれば、
「そのものすご〜く早い点滅を、ものすご〜く早く1秒に何千枚もカメラで見るんです」っていえば、「なるほど〜」と。 で、「ちょ、なにそれ、1秒に何千枚?」と、ここは期待通りのリアクション。
まあ、とにかく業界の方向けの展示会だしたことありますが、「このビットレートではアプリが…ビジネスモデルが…消費電力が…どうの」と、いろいろ突っ込まれるのですが、「きゃ〜面白〜い。早くケータイに入ると面白そ〜」と親子連れとか、巡子さんとか一般の方に、さらっとこの技術が理解いただけて、期待もしてもらえることがわかり、非常に楽しい展示説明ができました。
●その他の可視光通信
と、私が絡んだ展示はここまで、海保さんのその他の可視光通信展示をご紹介。
まず、その1が、同じ加工室でやっていた別の展示です。実際の海上ブイを高速で変調して、それをフォトダイオードを使った受信機でうけます。双眼鏡の片側に入れて、双眼鏡で覗いてブイを画角に入れると、その通信結果が傍らのPCに表示されます。通信速度はイメージセンサのやつよりはぐっと早く、数kbpsくらい。
ただ、高速かつ現実的で良い構成なんですが、実際はこのセットで長距離を達成するのはまだ課題があるそうです。
その2が、他の記事にも書いた海流水槽を使って、波でゆらした海上ブイ模型からの通信を飛ばすものです。受信機は上記と同じ、双眼鏡に仕込んだフォトダイオード。これは、来場者が自由なメッセージを指定してそれをその場でデータブイの光で飛ばして受信機に送り、上のプロジェクタ画面に文字列がでるという形でデモしていました。
[ ]
なお、このイベント、うみまると、う〜みんにも会えたのです。(写ってるのは別に私の家族じゃないです。屋外イベントの音楽隊ファミリーコンサートの風景より)
タイトルは、映画「ブレードランナー」の原作、「アンドロイドは電気羊の夢を見るか」(P.K.ディック)より。wikipedia:アンドロイドは電気羊の夢を見るか
国際ディスプレイ学会で発表します
12月2日と先ですが、福岡で開かれる国際ディスプレイ学会(IDW '10)
の中の、“Display Electronic Systems (DES)”のワークショップで、可視光通信について
セッションを立てるとのことで、Invited Talk をオファーいただきました。
ということで、
"Image Sensor Communication -A New Way of Visible Light Communication"
というタイトルで、可視光通信とかイメージセンサ通信について
少し喋らせていただきます。
ディスプレイ関係の学会ですから、イメージセンサ通信とディスプレイの事を、
さて、どこまでどんなこと紹介できるかな。
IDW'10 Fukuoka. Invited Talk 下の方、DES7-2 です。
可視光通信で巨大初音ミクAR(拡張現実)の実験のメモ
最近、昔ネタ連投ですが、可視光通信・イメージセンサ通信に関する公開資料を見た人や、昔にちらと画像だけツィートだけ見た人に「よく分からなかった」とか言われたこともあるので少し詳しく。(まあ、どちらにしろ、最新成果は大人の事情で出せないので・・・)
可視光通信のLEDタグによるARです。受信はイメージセンサ通信で並列位置把握することでARのタグとします。
で、近年いろいろARあるのに、なんで可視光通信?イメージセンサ通信なんかでやるのということですが、
まず、ARToolkitなんかでおなじみの二次元マーカ型ARは、幾何学的整合問題がない(=画像にぴったり合う)という素晴らしい利点があります。しかし、画像上でけっこうでかい(長距離だととんでもなくでかいのを必要とする)という問題があります。
例えば、最近の事例だと、
●ITmedia Gemaz 日々是遊戯:身長10メートルの巨大寧々さんも出現!エクストリーム・ラブプラスもAR時代に突入か
※これは1m四方のマーカ
●Youtube 建設予定のビルをAR(拡張現実)で出現させるプロジェクト
※これは巨大、数十?百?m四方の二次元マーカ
このように、二次元マーカで屋外なんかである程度の距離を狙うと、マークを置くのは大変そうです。
なので、屋外の巨大だとやはりGPS、方位センサーを駆使した、箱根ヱヴァンゲリヲンのようなやり方が、どちらかというと今は主流です。
●POLAR BEAR BLOG 箱根でARエヴァンゲリオンに会ってきた件
この企画は、廃校の校庭を使ったということで、幾何学的整合誤差が出ても気づきにくいという、良く考えられた舞台設定だと思います。
また、幾何整合の良いARとしては、PTAMとかマーカレス型の画像認識を使ったものがあります。これらは、膨大な認識パタンだったり、モデル対応だったりのデータベースを必要とします。(膨大といっても、このクラウド時代。問題はなくなるのかもしれませんが)
ということで、長距離・大型ARをやろうとすると、現在は、
・長距離のためのでっかい二次元マーカは準備が大変
・マーカレスは、サーバ準備が大変(<-- これは前提条件によってはあまり問題ではないですが)
という問題があるわけです。
(なお、現実の特定ロゴマークを認識するタイプは、なかなか良い現実解ですが、どちらかというと、マーカ型と考えます。)
先行して素晴らしいARの実例はあるのに、あえて必死に可視光タグでのARの利点をまとめていきますが、まだ、実用化前の技術の必死アピールとしてご了承ください。
すでにほかで紹介しているようにイメージセンサ通信では、広いFOV(Field Of View)で、同時多点の受信ができることは、いろいろな実績があります。また、距離についても、画像上で1ピクセルの大きさならいいので、数十cmサイズ光源で数百m、kmが取れていることは他の記事などでも紹介のとおりです。
そして、分類的にはマーカ型ですから、幾何学的整合の問題はやっぱりありません。
ということで、もとから、ARはイメージセンサ通信の重要応用であるとはしていましたが、わかりやすい事例実証をしてなかったところへ、2010年の3月ごろ、ちょうど可視光セミナー講師をやる機会があったので、3DCG関係の表示部分の実装の練習も兼ねて、新ネタの仕込みとしてちょっと余技みたいな感じでざっくりデモ用実装してみました。
可視光タグとしたのは、この4Wくらいのバッテリ駆動のLED光源です。
やっつけで作ったので、全方向放射とできなくて、放射角は詳細忘れましたが、たしか、5度から10度の角度です。なので、この実験の感じだと、上下左右で窓3,4個分くらいの範囲の受信エリアが、この光が見える範囲=ARができる範囲となります。
もちろん、光源を街灯のようにもうすこし何十Wとか百W以上も使えば、拾い放射角でどこからも見ても十分な光度が確保できる、つまりどから見ても受信できるタグとすることができます。
で、この光源4つ用意し、IDの割付けルール(ID=0,1,2,3 とか)を決めて、このIDデータを、とある可視光通信フォーマットに従った点滅変調させるように変調制御マイコンに焼き込んで、駐車場にさくっと4ヶ所おきます。(3月の雪の日の次ぐ日で、前日の雪が残っております)実は、前述のように狭角度の光源だし、正方形にちゃんと光を置くのは少し面倒でした。
さて、受信側です。
試作の可視光イメージセンサ通信の試作センサモジュールを小型WinPCにUSBでつないでいます。
センサモジュールはもちろん専用だし、PC側のドライバソフト周りは相当カスタムですが、使い勝手的にはWebカメラをつなぐ感じでシーンの中にある可視光通信光源の座標とその送信データが同時に複数、逐次得られるというUSBデバイスになっています。
なので、通信とタグの座標把握部分はセンサーがやっちゃうので、表示プログラムは単にWindowsのアプリプログラムとなります。
とにかく、定義された4つのIDの可視光通信源があると、そのタグの四角形の歪みから、カメラとの位置関係を逆算して、それに合わせた3DCGを出します。
各4つのコーナーの光は一ピクセル以上で見えればいいのでかなり長距離が可能です。逆に近くの小さい4つの四角形でもいわけです。室内でチップLEDで同じIDの組を読ませて、3DCG界における、HelloWorldともいえるユタポットをやると、
次は割付モデルデータを置き換えて、日本のAR界では下手するとユタポット以上のHello World である初音ミクさんをだしてみますと、こうなります。
では、さきほどのちょっと大騒ぎで屋外に設置した可視光通信ID群をこの試作受信機で見てみると・・・
こんな感じになります。
実際の応答ですが、なにせ試作なので、表示応答時間は、みなさんがニコニコ動画で見るARToolkitのやつの数分の一とかなり悪いです。受信機を持ち替えても、二呼吸、三呼吸遅れた応答です。
まあ、このあたりは地味に改善してるので、また別の機会にこういう屋外巨大ARの動画を発表できればと思います。
表示のスクリーンショットだと、こんな感じ。
表示上みかけの初音ミクさんの身長は、横のビルが5F建てですから、高さ20とか30mくらいでしょうか?
やることは、「1ピクセル以上で見える限りで4点の可視光を置く」だけなので、サイズは自由です。
光源の実力的にもう少し遠くでもいけるかな?という感じでした。
あ、ついでに。
実は前日に『巨大初音ミク出すぜ」とやろうとして、雪ふっちゃたので予行演習がてら、体育館でやった結果もあげときます。可視光通信LED光源は同じものを使ってます。
さて、ということで可視光通信の光タグをイメージセンサ通信でやると、長距離、巨大ARが簡単ですよという話ですが、可視光通信を使うということにはもっと深い利点というか可能性があります。
1.通信である=端末側モデルデータ準備を不要にする
今、たいていのARって、3DCGモデルデータは自分で用意していますが(ネットで引っ張ってくるというのもあるが)可視光イメージセンサ通信が高速化すると、モデルデータ自身を光源自体から送り込むってのが可能になります。そうすると端末はエンジンがあるだけで、何もモデルデータの準備もいらないし、ネット問い合わせてダウンロードもいらないってことが将来、できると私は信じています。
2.アフォーダンス性に優れている
目で見えるので、光り方、色を工夫すれば、「あ、光ってる、情報だしてる、CGが取れるぞ!」という告知を、ユーザの目にアピールすることができます。情報を届けることにおいて、人間の目でまず認知するってすごく重要です。
(いや、まあ、アフォーダンス性「うわAR情報あるぞ!」ってのは、実は二次元マーカが最大のインパクトですが、この件は振り出しに戻って、それはいいけど、あまりに、視界内でかなり大きな存在を必要とするということです)
「初音ミク」はクリプトン・フューチャー・メディア株式会社の著作物です。 © Crypton Future Media, Inc.謝辞
以下のデータを利用させて頂きました。
・初音ミクデータ mikumikoto 日曜モデリング様
映像のうち、初音ミク登場部分は、ピアプロ・キャラクター・ライセンスに基づいてクリプトン・フューチャー・メディア株式会社のキャラクター「初音ミク」をレンダリングしたものです。
以下のライブラリ・ツールを利用、参考にさせて頂きました。
・GLMetaseq (工学ナビ橋本様)
・ARToolkit(現,奈良先端科学技術大学院大学 教授 加藤博一様 、ワシントン大学HITL様)
(かなりソースを読んで勉強させていただきました、モジュールを流用させていただきました)
・MikuMikuDance (Vocaloid Promotion Video Project, 樋口M様)
作者の皆様に感謝いたします。
(なお、GPL・LGPL成果を使わせていただいていますが、これは開発過程で余技で作った内部実証用で商用化どころか配布の予定はありません)
また、その他様々なVR/AR関連の研究を参考にさせて頂きました。
作者の皆様ありがとうございますm(_ _)m