可視光通信…菓子交通神?お菓子と交通の神じゃないって

可視光通信とか眼や光にまつわるもろもろ

造物主の掟

タイトルはJ.P.ホーガンの「造物主の掟」より (今回はひねりなし! )

ちょっとまえに、慶應大学理工学部可視光通信の紹介中心に理工学概論的な講義してくれと、外部講師のお座敷かけて頂いて、その導入部のトークとして入れたネタで久々のエントリー。
進化論と技術進歩をむりやりメタファーで繋げるという、無謀な試みをやってみます。

まず、元ネタである超重要なこの本。オススメです。
amazon:眼の誕生 ――カンブリア紀大進化の謎を解く-アンドリュー・パーカー/dp/4794214782
とりあえず、さらさらとiPadで書いてみた残念な感じのカンブリアのイメージでアノマロカリス君を載せときます。

あと、"眼"にまつわる話だと、
amazon:見る―眼の誕生はわたしたちをどう変えたか −−サイモン・イングス
 これも、分野も多岐にわたっていてとても面白いです。眼や光に興味がある人は必読。



さて、以前書いた、このブログで最大のブクマ数を誇るエントリー
「なんでこの周波数の電磁波だけが "可視"光?」
http://d.hatena.ne.jp/junaz/20100410/1270877464
で、単に「進化で効率のよいパッシブセンサで使える電磁波はこの可視光帯しかなかったのね」
程度の結論でしたが・・・・、造物主の意志はもっと深く、進化の必然で我々は可視光を「眼」で感じる定めがあったわけです。

この、「眼の誕生」で述べている「進化の光スイッチ説」すごいです。
何をいっているかというと、

カンブリア紀の大進化(大爆発・etc)といわれる、生物進化上の謎現象がある。
これの原因、なぜこの時期か?決定的論考がなかった。が・・・
ついに本当の本質的原因がわかったよ!!

  • 結局、これは、「眼」という構造を生命が手に入れたから!

「眼」が登場したとたんに、捕食者、被食者の競争が突然に激化、淘汰圧が劇的に上がり、お互いのセンシングの検知競争だけでなく、硬組織の発達に伴う外形の展開、その他「見た目」に関する様々な進化まで引き起こすことになった。それが、カンブリア紀の大爆発だよ!!    であると。


重大なのは、「可視光を感じる」ことでなく、「可視光を眼で見ること」という点。可視光自体の明暗センサーは、大進化に先立って、基本センサーで獲得はしていたがそれはほかの感覚と大してかわらない、イメージングして世界をとらえるという独自の感覚は、明暗をセンシングするだけから異質なものであるとのこと。

え?じゃあなんで、カンブリア紀にその、"眼"の発明がおきたか。というと、

  • それは、生物のデザインが複雑さの臨界量を超えた時期だった。
    • 多細胞性粒も出現し、外界の感覚についての基本的な神経ネットワーク構造ができ始めて、眼みたいな複雑な情報処理系を構成する下地ができていた
  • 地上に降り注ぐ光のエネルギーが急激に増えた。
    • 大気中のエアロゾルの濃さの関係でこのころまでにエネルギーが増えた。また、当時の太陽系の銀河の腕における位置的にみても、星間物質の比較的濃いところから薄いところに抜けたあたりだったかも。(ここはかなり推測)

というのを、まあ、くどいくらい丁寧な論証で述べた本です。
wikipedia:カンブリア爆発にも、パーカーの光スイッチ説簡単に解説出てます。

図にするとこういう感じ。

※すべて、雰囲気で書いた模式図なんで、まじめにグラフは読み取らないように。 特に、可視光エネルギー降り注ぎの増大は、本書のなかでも、けっこう定性的な仮説の扱いです。
図表の表現では甘いですが、眼のデザインって、ほぼ500万年くらいの超短期間で(つまり進化史的には、まさに一夜で)行われてしまったというのが、にわかに信じがたいほど、不思議です。(この超短期間で進化してしまったことの論考は、2番目に紹介したイングスの「見る」のほうが詳細)


示唆的です。
「可視光を感じること」でなく、「眼で可視光をみること」が大事だと。

つまり、可視光やるなら明暗の変化(単一フォトダイオード)でやるのでなく、イメージセンサでやれってことですよね。

たしかに、まず、一般の通信(主に電波)というのは、物理的なお互いの空間的位置関係は、本質ではありません。気にしていません、つか、気にするような使い方を想定してない。
だからこそ、ポケットに入れても、後ろからも、情報がやって来てとてもとても便利。なわけです。


しかし、ユビキタスだのモバイルってことで、私たちのコンピューティングは、
「イマ・ココ」の文脈にあった情報提供が、ますます必要になっています。

つまり、自分がこの環境の中で、何を見てるか・何に注意を向けたか、だれから注意を向けられているか、というのがものすごく大事になっているわけです。

何に注意を向けたかを指定するためには、相当に高い空間解像度がいります、これは周波数の短い電磁波=光を使うしかありません。そして、注意を喚起するのによいことは、眼で見えることですから、光といってもとりわけ、可視光が絶対に有利です。
そしてその可視光なりの解像度で、電磁波の細かい強度分布(=つまり視界の"絵")を時々刻々得る手段は、カメラ(イメージセンサ)で受けるしかないわけです。

-私たちの身の回りには、標識、看板、インジケータ があふれていることを思い出してください。
-たった1つの小さなLEDのワーニングを数mは離れてもしっかり見えることを思い出してください。
-カメラを向ければ、「何勝手にとってんだよぉ!」となることを思い出してください。



・・・・・というわけで・・・・
これまでの通信は、通信は基本的に帯域幅(伝送速度)だけを気にして発展してきました。
いわば眼をつぶって、どれだけ早く大きい荷物を運ぶかの競争でした。
これは、生命がいっしょうけんめい基本的な外界のセンサを発達させていたことに相当します。(ということにしましょう)

でもさらに、私たちのニーズは広がって、イマ・ココの現場の状況(コンテキスト)に合わせた情報が必要になっています。そのための、背景技術はもうあります。
そう、ついに、生命が眼を発明したように、通信も”眼”で行う時代がやってきました。

カメラで可視光通信イメージセンサ通信)するのは、このように進化の必定である! 造物主の掟なのだ、
そうなのだ!今から通信におけるカンブリア爆発が始まるのだ!

・・・・という強弁でございました。

天気晴朗ナレドモ波…高クナシ 〜横浜港船舶可視光通信実験のメモ〜

. - . . - - . - . ---- 「可視光通信見ユとの警報ニ接シ 可視光通信こんそーしあむハ直チニ出動 コレヲ受信セントス 本日天気晴朗ナレドモ浪高シ」

※元ネタは「敵艦見ユトノ警報ニ接シ 連合艦隊ハ直チニ出動 コレヲ撃滅セントス、本日天気晴朗ナレドモ波高シ」これは、東郷平八郎が丁字戦法を使ってバルチック艦隊を破った時の秋山参謀の名打電文といわれているものです。最後の一文が状況報告でありながら決戦を前にした心情描写になっているというところが名文たる所以らしいです。





・・・・ということで、書きそびれていた過去の実験メモ。
2011年12月に、横浜港で大黒ふ頭設置の可視光通信東大を船舶上から受信する実験で、可視光通信コンソーシアムが海上保安庁の全面協力により行った実験です。カシオと東芝さんがイメージセンサー通信の試作機をもちこんで、揺動船舶上から可視光通信変調灯台からkmオーダーの受信実験の行うというもの。



念押ししますが、レーザ光通信とかで送受信の光軸工事しちゃえば、光でkmなんて全然珍しくないですが、これは灯台やブイのように全周囲放射する光(=遠くから見たら点)を、受け側もまったりとして方向指定(=波に揺れる船上からせいぜい双眼鏡を構える程度のラフさ)で、通信を確立するってものすごく大変なことです。
この点で、海上保安庁では、通信ビットレートどうこういうまえに、海で灯台などを流用する長距離可視光通信の受信にはイメージセンサ通信しかない?と捉えてらっしゃるわけです。




ということで、まず、これがウチの試作機。サイバーパンキーにまとめてみました。PCにつないでますが、信号の捕捉やデコードは、何千fpsで動く専用開発のイメージセンサ通信モジュールが行なっていて、PCはほぼ表示を作っているだけ。生双眼鏡は、ただのホールドだというのが愛嬌。f^_^; (実際には、イメージセンサのモニタするー画像がモノクロで、表示レート自体は1fpsにもみたないので(通信処理は数千fpsなのに)あんまり、揺れが激しかったら、モニタスルー見るHMDかなぐりすてて、生眼で双眼鏡覗いて信号トラッキングやるための隠し技の意味もあります)


なにせ、海上のフィールドなんて初めてなんで、8,9月に予備実験を行いいろいろ調整などして、本番実験を、2011年12月7日に迎えました。
実験の目的が、いわば「試作機のできを通じての可視光通信の実力テスト」ですから、もし波タカシ(=揺動が激しすぎる)だと、こちらの試作機の性能追いつかず天気以上に風(=波)が気になっていましたが、当日はちょうどいい按配の、この時期としていたって平均的な海面状況でした。
(このころ、次月の1月にはラスベガスのCEショーで、ピカピカメラの技術発表をやる準備で目の回るような忙しさの中・・・はさておいて)



これが可視光の変調装置を入れ込んだ、2km用ブイの実験用改造機です。(変調周波数は2kHz。見た目にはもちろん変調わからない)大黒ふ頭のFと出てる船舶向けサインのタワー(説明してもらったのに忘れた)下に設置しました。




そして、これが当日に乗船しました、海上保安庁灯台見回り船そううん
試作機もいちおう実用を意識したので、ブリッジからそのまま、通信を受信。





そういう中で、500mあたりでまあまあ快調にとれている段階での受信結果がこれです。HMDでこの景色が見えるわけです。PC画面にも写っているので周囲の人にもわかります。

操作してる感はそれなりなのですが・・・とにかくモニタ表示のレートが遅すぎてかなりドランキーです。私は比較的船酔い強いのと、しっかり酔い止め薬を飲み、終始気が張ってたので大丈夫でしたが、船の上でちょっとこの試作機を試した人は「う、なんか酔いそう・・・」と即効でやめてました (^^;;;;


2kmでも多少苦労しながら一応捕捉に成功しましたが、かなりの文字化けでした。
ただ、イメージセンサ通信は、ビットエラーレートだS/Nだという前に、こういう実フィールドにおいて画像処理的な信号の捕捉やトラッキングのほうが本質的な技術なので、それが2km離れた船舶上から2マイル型の数百cd の輝度のもとを捉えられたことが確認できたのは大きな成果でした。

灯台は無理だけど、なんか低速色変調の新しい海上設備を考えてくれれば、同様の長距離受信機はもう例のスマホアプリが使えるんですが・・・そちらは、そうそう計画がないようで。

          • -

可視光通信コンソーシアム 灯台サブプロジェクトページ


海保さんからも詳細なレポートが、先日出ています
海上保安庁 H23年度研究成果報告 「灯火を活用した新たな情報提供に関する調査研究」

最初から二番目の通信術

※タイトルは、PKディックの 「最後から二番目の真実」より。(しんじつ、と、つう-しんじゅつ、がんばってます)



さて、先日、AppStoreでMorseCameraというiPhoneアプリがリリースされました。
これ、私が比較的、懇意にしてる学生さん(つかウチの子供)の手によるものです。
(とかいいながら、カメラ画像のリアルタイム処理まわりとか、iOS フレームワーク,Xcode の使い方でかなり、口出してしまってます…)
Appleのdev登録、個人でもずっと持ってて一人で実機に書いて遊んでただけですが、今回初めてリリースに使えてよかったです。




アプリを作るにあたって、調べたのですが、モールスアプリって、結構あるし、光を使うのも結構あるのですが、 光の受信するもの、ましてや、カメラでやるものはありませんでした。
ということで、普通にリリースされた、可視光通信スマホアプリは、ピカピカメラ(ピカピカメラ AppStore)が最初だと思うので、それに続いて、二番目の可視光通信アプリと思われます。


そして、共にカメラを使う可視光通信=イメージセンサ通信であり、スマホのカメラ流用なので、まあ、通信自体は低速になるけど、独特のユーザ体験の味わいがあるという意味では、やはり仲間です。



デモ動画
ピカピカメラと違い、画角全ての中から光原位置捕捉するわけでなく、自分で照準合わせが面倒だし、また、同時に一つしか受信しませんが、画像上のごく小さな輝点を観測するので比較的距離が出しやすいのは、まさにイメージセンサ通信の特徴です。懐中電灯でも結構距離撮れる筈ですが、割とシンプルな動画しかないです。たまたま夜の撮影になっちゃったけど、昼間でも点と滅のめりはりあれば、とれるはず。


ぶっちゃけ、まだかなり荒削りですが、彼がUpdateのモチベーション持てるよう、ご興味あったら、お試しください。
https://itunes.apple.com/jp/app/morsecamera/id564578999

プリミティブな可視光通信狙いなら、次は、狼煙通信アプリ(どうやって?)をお奨めしてみようか‥

故郷から1.3光年

※タイトルは、あまり意味なく、ジェイムズ・ティプトリー・Jrの「故郷から10000光年」より

うほ、気づけばなんと、前回のエントリーから1.3年以上開いてしまいました。
書くネタはあったのですが・・・どういう訳か自分の中の可視光通信が忙しくて、間が開いてしまいました。またポツポツ復活したいと思います。


ってことで、久しぶりの記事としては、総括ネタとして、ざっくりここ1年の可視光の話題を独断と偏見と寡聞にもとづいてトピック拾ってみましょう。
特に順番に意味はありません。独断と偏見と寡聞に基づいていますから、くれぐれも眉唾な個人的総括であることはくれぐれもご承知おきください。… それではいってみましょう。


1.スマートフォンを使ったイメージセンサ通信が台頭!



本気でスマホが普及し始めているせいか、今年以後に、スマホのカメラを使った可視光イメージセンサ通信の応用の発表が相次ぎました。
(※MITさん、富士通さんのやつともに、とりたてて「イメージセンサ通信」とはいっていません。MITさんにいたっては、「可視光通信」という言い方もしてませんが、可視光通信イメージセンサ通信ウォッチャーの私からみれば、アカデミックな意味において、可視光通信ですし、イメージセンサ通信に入れさせて頂きます。)

1-1.ピカピカメラカシオ計算機 
iPhoneアプリリリース済 4/25  (技術発表は2012年 1月のラスベガスCEショー)
 スマホのカメラのレートに合わせて、超低速の色変調を検出するイメージセンサ通信のアプリです。以下は2012/6月の幕張で行われたロケーション・ビジネスジャパンのときにDigiInfoさんに取材していただいたときの動画です。
あからさマーケティング恐縮ですが・・・

端末ディスプレイの点滅で自分で送信できるところも特徴。あからさまに情報出しているマーカー個々が情報発信自体のアイキャッチになることも狙いっています。
伝送情報量が少ないので、ID番号を認識すると、位置情報と組合せてコンテンツをひもづけるクラウドサービスと問合わせて、表示するところがミソです。全体としては実は可視光通信よりクラウドのところをがんばってたりします。
とにかく、これ、(私完全に中の人なんで、あからさマーケティングとなりますが)まだかなり荒削りだけど、これ恐ろしいポテンシャルじゃないでしょうか。中の人達も頑張っているようなので、まったり生温かく見守っていただければとおもいます。


1-2.News Flash(MIT Media Lab)

技術発表のみ。ディスプレイにスマホ(Andoroid)のカメラを向けてスクリーンの点滅に込められた情報をカメラで受信します。
表示の変調として、緑っぽい色とピンクっぽい色でバランスさせて人の視覚では、白に見えるようになっていて、変調を不可視にする工夫をしています。
単一マーカというより、スクリーン=>カメラという情報の伝送を狙っているようです。どうも時間方向でなく空間方向にも変調しているも見えたりしますが、動画とサイトの解説はいっさい細かいこと言わないし、論文を探したのですが見つからないので、変調の詳細はわかりません。


1-3.富士通研究所 「映像を媒介した新たな情報通信技術」 (?名称不明)

技術発表のみ。先日のCEATECにも出てました。電子透かしと可視光通信の特徴を合わせた技術です。
電子透かしの変動を時間方向行なって、スクリーンの表示全体で情報を送る感じで、これも、可視光通信ではあるが人には伝送を不可視にする工夫をしています。伝送情報量自体は16bps 程度らしいので、ピカピカメラと同様にネットワークとの連携した形で実用システムにしていくようです。
これも、単一マーカというより、スクリーン=>カメラという情報の伝送ですね。



2.水中に宇宙に、展開する可視光通信



陸上でだと、近傍無線とどう違う?赤外線と何違う?って突っ込みに答えないといけないのが、可視光通信の宿命なのですが、水中は電波が通じませんから、シンプルに通信ができるってだけで、成立します。

水中可視光通信といえば、以前より注目されていた沖縄のベンチャー、マリンコムズ琉球さんが、ビジネスをスタートさせています。変調はたしかアナログベースだったとおもいます。
株式会社マリンコムズ琉球

また、9月には、やはり水中可視光通信を東洋電機が技術発表しています。こちらはデジタルで 10Mbps@30m(プール)とのこと。CEATECにも出展したいたようです。
東洋電機、水中で可視光通信−双方向で映像・音声
東洋電機公式サイト CEATEC出展情報

そして、宇宙です。JAXAの相乗り小型衛星プロジェクトでは、2つの可視光通信対応衛星が名乗りを上げています。

Jaxa産業連携センター> 相乗り小型衛星 > 打ち上げ予定・実績・リンク

可視光通信実験衛星/国立大学法人 信州大学(【H25年度打ち上げ】H-IIA・「GPM」に相乗り)
FITSAT-1/福岡工業大学(【平成25年度打ち上げ】H-IIA・「GPM」に相乗り)

宇宙で可視光通信。胸熱です。ヤクト・ドーガが宇宙で光音声しゃべるのもすぐそこです。


4.可視光通信の標準のゆくえ(2011年9月にリリースしたIEEE802.15.7はどうなった?)



 もう1年たってしまいましたが、実は可視光通信の国際標準、IEE802.15.7の標準が2011年9月にリリースされました。
802.15.7-2011 - IEEE Standard for Local and Metropolitan Area Networks--Part 15.7: Short-Range Wireless Optical Communication Using Visible Light
韓国開発の可視光通信技術、世界初の標準化に成功(2011/08/18の記事)

まあ、私このIEEE802.15.7 TGの会議は、一昨年、ハワイ、アトランタ、ロス会合に、連続して出席したりして、なんどか、標準化会議に2回ほどたどたどしい英語プレゼンをやったりして、少し参加し、いろいろ経緯も知っておりますが、個人的な感想的になってしまうのでここではひかえましょう。

…対応品でませんねぇ。
重要技術領域としてやや先行してリリースしたものの、標準化された国際技術としては、やはりなにかもう一皮むけないと・・・ということでしょうかね。まあ、あんまり日本勢としても、ましてやイメージセンサ通信陣営としては、あまり気にしなくて良い規格であります?ということかも。

とにかく標準化の国際会議プロセスに一時的にせよ参加して、いろいろ本当に勉強になりました。国際標準化舞台での政治的鞘当てなんかも、当事者として体験出来たりして勉強にもなりました。機会があれば、また、こういう最前線で闘いと協調、殴り合いと固い握手をがっつりできるような活動してみたいものです。

なお、国内の事例だと、JIETAの可視光通信標準(4.8kbps)は高速が必須でないシステムだとよく使われるようです。


番外:



実用化への動きだと、アウトスタンディングテクノロジーさんは、ふうつうに可視光通信商品売りだしてたり、[http://panasonic.co.jp/corp/news/official.data/data.dir/2012/07/jn120711-3/jn120711-3.html:title=パナソニクさんが可視光通信システムを、ナガシマスパーランドの『ポケモンアドベンチャーキャンプ』に収めたり」たりと、商売的な動きも、いろいろとあったりもしましたが、このあたりは、また別の機会に。

あーあと、Microsoftイマジンカップ国際大会で、日本代表で参加チームのうち東京高専のチームが可視光通信を使った提案がソフトウェアデザイン部門で、堂々の見事2位になったのも相当嬉しいニュースでした。
東京工業高等専門学校 Coccolo「All Lights! 〜可視光通信による省電力照明システム〜」
若い女性の学生さんが可視光通信取り組んでるのを見たりすると、つい、QB声で「僕と契約して可視光通信少女になってよ」と変なセリフが聞こえたのは私だけ?

ヤクト・ドーガ にリアル可視光通信でしゃべらせてみた

なんか、光通信キットでいろいろ遊んでおきながら肝心のネタ忘れてたので、小ネタ追加。

以前の記事「ガンダムと可視光通信」 でもかきましたが、映画 ”機動戦士ガンダム逆襲のシャア」” 中のシーンで、宇宙空間で、ヤクト・ドーガというモビルスーツに乗り込んだ敵役ギュネイが、卑怯な手でガンダムを脅すシーンの宇宙空間の会話に、可視光通信が使われています。(作品中の呼称は光音声?)


このネタをいただいて、DVDの音を、学研の光通信キットの送信機でアナログ変調して、そのシーンでヤクト・ドーガの光音声を飛ばしている目玉?のところに送信機のLEDと並列に接続したLEDを画面に貼りつけて、実際に可視光通信でしゃべってもらいました。

(なお、何も仕掛けしないで、もとの映像でセリフに従い点滅してるところに、そのまま、受信機に当ててみました。が、やはり、セリフの文字単位レベルの(つまり音声のエンベロープ波形レベル)の低い周波数の点滅なんで、まったく音にはなりませんでした)


こんなふうに光を使った敵同士のモビルスーツの会話は、あらかじめプロトコルや標準を決めとくってわけにもいきません。
ですから、携帯電話の赤外線での通信のように、お互い向き合ってれば通信確立になる通信が必要=>可視光通信の出番ですね。


参考:wikipedia:機動戦士ガンダム 逆襲のシャア

レーザー可視光通信で歌を歌ったアルディーノ

※タイトルは、大原まり子著「銀河ネットワークで歌を歌ったクジラ」より。


前回の可視光通信キットに、さらにAruduinoを送信に使ってもう少し遊ぶとします。
LEDだと距離が苦しかったので、今回レーザーを使います。
(何しろPerfume の新譜「レーザービーム」が発売間近(2011/5/18)ですからね。なので後半ではArduionoにPerfumeを歌わせる?こともやります。)


可視光通信の送信部は、以前のはやぶさがらみ記事で、Arduionoに赤色レーザポインタをつなげたやつがあるのでOK。
受信部とA/D (アナログ−デジタル変換)は前回の光通信キットの受信部をそのまま使えばOK。
写真の白いやつは単なる乾電池のUSB給電器です。

あとはArduinoでアナログ音声変調させるスケッチ(Arduinoのプログラム)ですが、・・・とりあえず、PWM(パルス幅変調)でオーディオ出すのをググりましてこれをで遊ぶこととしました。すごい人がいるもんです。
Cantarino, the Arduino speech synthesiser
(BoxHeadRoomさんの記事 『Cantarino』唄うArduino という紹介記事がわかりやすいです。後述する「2001年・・」のHALの歌うシーンへのリンクもあります。)


これ、「唄う」と言う名に恥じず、録音済音声のPCMデータを出すんじゃなくて、フォルマントシンセサイザーです。つまり、初音ミクみたいなもんです。(正確には、初音ミクは録音済音素片を使う連結的合成方式で、今回紹介するスケッチは計算で音声波形をつくるフォルマント合成方式です)

上記動画の工作例では、このPWMの3ピンの出力をアンプ・スピーカーにつないで音を出してますが、今回は、このPWMパルスでレーザー駆動して光変調パルスとして送って、光通信キットで受信とします。
このレーザポインタの駆動は3V 17mA、Arduinoのデジタルピンは5V40mAまでひっぱれます。ですので、間に合わせですし一番安易な方法、抵抗で電圧ドロップさせて、3Vくらいに落としてやっつでやってます。

ということで、スケッチをボードにUploadしてさくっと動作確認できたら、せっかくレーザーなんで相当届くはず!いい絵が取れるぞ! と、近所の公園で、息子に動員かけて手伝わせて実験してみました。


5mくらいから順次長くしていこうと思ったら、実験してみて驚愕のヘタレ事実!工作に使ったレーザーポインタが安物で「ビームが甘すぎ」だったのです。_| ̄|〇… ほんの20mくらいで、ごらんのようにビームがだだ広がりこのあたりが限界のようです。100mは軽いと思ったのですが・・・

このように数mくらいならちゃんとビームなんですが・・・・

本当は公園いっぱい使って、鏡でグラウンドひとまわりの反射衛星砲いっちゃう?とか妄想広がってたのですが・・・安もんですからレンズの歪みか焦点調整の工作精度なのか。まあ、とりあえずこれでご愛嬌とさせてください。


この、実験をやってるときですね、下を向いて腰の高さくらいのビームの位置を確認しながら後ろずさりで「うわ〜だめだ、ダダ広がりじゃん!」とかやってたら、公園でおしゃべりしてるおばさん達がこちらをチラチラ、「あの人何やってるのかしらね?何か落としたのかしらねぇ、なんか変ねぇ」とヒソヒソが聞こえて、そのうち「何落としたの?大丈夫?」と声をかけて下さいました。おばちゃん達ありがとう。不審者でごめんなさい。





●この実験で使った楽曲「デイジー・ベル」について
wikipedia:デイジー・ベル
デイジー・ベルという曲は、1961年に世界で初めてコンピュータが唄った歌。なんですが、むしろ有名なのは、映画「2001年宇宙の旅」のシーンでしょうね。ボーマン船長が、暴走した(高度すぎるゆえに精神障害を起こした)AIコンピュータHAL9000を破壊する過程で幼児がえりしていき?HALが幼少期?に覚えた、このデイジー・ベルを歌いだすという、怖〜いシーンです。このHALがデイジー・ベル歌うというのは、作者のA・C・クラークが実際にIBM7094のデモを見ていたく感銘したからだそうです。

この動画がその解説。(この動画ではなぜキューブリックが?となっていますが、クラークのアイディアと思います)
なお、「2001年・・」で素晴らしいと思うのは、上記動画にあるようにボーマンが壊していくHALの中枢がなにかクリスタル状のモジュールからなっている事です。
光演算回路?フォトンを扱う量子コンピューティング素子?って感じで。へたに現代の回路基板にしてないために時代普遍性を出してるのが本当にハイセンスです。
ボード間ばかりでなくチップ内の信号光化も研究されてたと思うので、2001年には間に合わなかったけどホントに近未来はこういうモジュールになったりして・・・
そういえば、HALの壊れ方も、ゲシュタルトを維持しつつ壊れる感じで、ホロニックな構造を伺わせるなど、未来の人工知能としてリアリティありました。
そういえば、確か手塚治虫も「2001年・・」のアドバイザーで声かかってたのですよね。当時虫プロ立ち上げたばかりという事情で辞退なさったという事ですが・・・ちと残念。


●ちょっとプログラムの解説
上記リンクからArduionoのスケッチはダウンロードできます。依存ライブラリもないしスケッチには歌唱データつきなので、落としてボードにUploadしてPWM3ピンの出力を音声化すればどなたも、すぐに歌わせられると思います。

◯音声のPWM変調について(初心者向け)
PWM自体については、
http://www.musashinodenpa.com/arduino/ref/index.php?f=2&pos=152
とか、前回のエントリー中にもデジタルのPWMがアナログ的にはどう感じるかの理屈をごらんください。

ArduionoのPWM端子って、analogWrite()で値を設定すると、PWM(Pulse Width Modulation)を自動的に制御してくれて、ONとOFFのいい塩梅の比率になったパルスを設定してくれるんですが、
応答速度は、デフォルト(多分プレスケール1/64 490Hz)だと遅過ぎです。(まあ、基本このPWMってデフォルトの意識はモータとか制御用ですからね。音声帯域は考えてない)
8パルスで1つのアナログ値ですから、490Hzのパルス周期だと、アナログ平滑して表現できる値の変化の周波数は、490/8=61Hz つまり、61Hzサイン波ならなら表現できると。しかし、ラの音が440Hzですから、ただの正弦波のメロディレベルでも表現できません。 歌うとかしゃべるとかのレベルはありません。(たとえば人の声としっかり分かる程度の音色表現には、少なくとも4KHz(fsでいうと8KHz)くらいまでの周波数を表現できることが最低レベルといわれています。ちなみにCDでは、fs=44.1KHzだから、22KHzという高い音の成分による複雑な波形=音色を表現できるということになります)

なので、このプログラムでは、

TCCR2A = _BV(COM2B1) | _BV(WGM20);
TCCR2B = _BV(CS20);
TIMSK2 = _BV(TOIE2);

とやって、PWMの周波数を 31.5kHzにします。これ実際には、fsとして31.5/8 =3.9KHz なので、表現できる音は最高で1.9KHzで、かつPWMの相当ノイジーであることはしょうがありません。(あと、この光通信キットの受信機にせめて、2kHzのローパスがあるとよかったですが)

◯歌唱データテーブルについて
で、このプログラムの凄いところは、前述したようにPCM波形を出すのでなく、音素片と変調とピッチをテーブルに従って処理して、その場の歌声を合成するわけです。
私も正直、プログラムを全部追ってないですが、解説文によれば、二つの正弦波と一つの矩形波を合成して また位相変調を調整することで無声音もだせるとのことです。

uint8_t frameList[] PROGMEM = {
_Da,3,0,39,_Db,1,0,39,_Dc,1,3,39,_EY,8,6,39,_YX,20,3,39, // Dai..
_Z,10,0,36,_IY,35,3,36, // ..sy

(PROGMEMというのは、この配列をRAMでなくROM領域に配置しろという命令です。なにせデータがでかいので、RAMにおくとあふれちゃうので。)
上述のように、基本的に、『音素データ、長さ、変調?、ピッチ』という4バイト組でフレームと呼ぶ一つの単位です。ピッチは27がC4(ド)のようです。半音で1つ上がるごとに+1です。なので31だとミです。
時間長さは15msが1単位っぽいですが、まあ適当に。
http://code.google.com/p/tinkerit/wiki/Cantarino のテーブルも参考にしました。基本的にあまりわかりやすいドキュメントがダウンロードページにはない感じです。
母音と子音で一つの音が多いですが、複数の子音を複雑に組み合わせる必要があるようですが、そのあたりはぜんぜん理解しておりません。


Perfumeの『レーザービーム』を歌わせよう!
さてそれじゃ、曲を変えてみましょう。ターゲットはもちろん、発売が待ちどおしい、Pefumeの新譜、「レーザービーム」で。

曲を変える場合には、前述のように

uint8_t frameList[] PROGMEM = {…..}

のテーブルデータだけ変えれば良いようです。

で、さすがにやっつけなんでフルコーラスはやめといて、決めのフレーズ 「にっじっい~ろの、ラブビーム」のくだりだけやってみました。
とりあえず、formantTable[]を参照するIndexとするためenum された、_AHとか_UHとかが
一応音と対応しているらしいので、それでそれでさぐりさぐりやりました。

でまあ、10−20分くらい格闘して、ギリ聞こえるようになったかな?ってのが以下です。

//Perfume "Laser beam"
uint8_t frameList[] PROGMEM = {
_N,3,0,32, _IH,16,10,32, //Ni
_ZH,3,0,39,_IH,24,10,39, //Ji
_IH,8,10,37, //I
_ER,4,10,34, //Ro
_OH,4,0,30, //No
_L,2,0,32,_AA,4,10,32, //Ra
_V,3,5,39,_UH,3,5,39, //Bu
_Ba,1,0,33,_Bb,2,0,33,_IH,8,10,33, //Bi
_IH,8,10,30, //I
_M,3,3,27,_UH,8,5,27, //Mu
};

そういえば、ご存じ無い方のために元曲の「レーザービーム」について。
上記フレーズは、以下のPV動画 0:35あたりです。

(※公式PV動画公開に伴い、以前のCMの動画リンクから変更しました 5/21)

身の回りの変調光を聴いてみよう

さて、可視光通信に関して、ときどき出る質問が、「そんな、眼に見えない点滅に乗せってデータ送なんて、体に影響ないんですか?」 と聞かれます。
そういう質問への参考として「すでに身の回りのいろんなものが、すでに眼に感じない速さで点滅されてる」という事をご紹介しようと思います。

そして、この実験に使う道具は、ちょい昔、子どもがとっていた6年の科学の付録で、棚ざらしになっていた「光通信キット」の付録がふと眼にとまりましたのでコレを使います。(現在、個別キットで販売もしているようです
http://shop.gakken.co.jp/shop/order/k_ok/goodsdisp.asp?code=1575030900

まずは、キットはこんな感じ。
送信部(LED) 受信部(太陽電池)


動画1:基本動作

(曲はPerfumeで、1st Album、Complete Bestより「エレクトロ・ワールド」)

回路的には、光にはマイナスの明るさってのがないので、DC(直流)の強弱変化に変えるところがミソです。

受光デバイスとしては、太陽電池を使います。一般的には、光の通信ですとフォトダイオードという素子を使うのですが、このキットのように応答速度や特性が音声変換に使える程度でよくて、受信感度がとれるということで太陽電池ということになったのでしょう。
ちなみに、フォトダイオードの扱いって少し面倒なので、日曜電子工作では、LEDを「受光」デバイスとして使うこともあります。LEDに光を当てると電気が生じるのです。逆に太陽電池に電気流すと光出るそうです。
どちらも本来の使い方でないので、相当効率悪いのですが・・・



それでは、聴き比べ。まず、照明。
動画2:ふつうの蛍光灯(インバータ無し)とインバータ型蛍光灯

・一般蛍光灯。うちは関東ですので、商用電源周波数50Hzの交流から作られたブーンが小さい音で聞こえます。
ただし!!光の明暗でいうと、50Hzで駆動された明かりはプラスとマイナスのピークどちらも、明るさのピークが来るので、聞こえる音の周波数は50Hzでなくオクターブ高くなって100Hzになります。(下図)

ちなみに、100Hzは、音高で言うと、およそ、G2(2オクターブ下の)くらいの音音です。( A4(ラ)=440Hzのとき G2=97.99Hz )
西日本だと、60x2=120Hzの音になるので、だいたいB2(シ)くらいの音高になると思われます。
微妙に端と真ん中で発光の様子が異なるため、それが音色の違いとなって現れているのがわかるでしょうか。

・動画後半はインバータ型のスタンドです。消費電力の効率とか、すぐ点灯するとかの利点のために、商用ACをいったんDCにしたあと、数十kHzの交流で駆動します。つまり1秒に数万とか数十万回の点滅となります。人の聴覚はよく聞こえる人で20kHzくらい。なので、もはや、これは音が聞こえません。(音になっても聞こえないし、そもそもこの回路の応答速度も超えてるかも)
ちなみに、わずかに全体に電源のハムが乗るのか、ブーンとかすかに聞こえます。


次は昨今、ますます普及しないといけないLED照明で。
動画3:LED電球 安い奴とちゃんとしたメーカー品

これ、大手がLED照明作り始める前にかった、通常電球(いわゆるエジソン球)の口金と互換のやつです。
LEDは直流光源なので、そのまま直結すると壊れたりしますので、たぶん、この安物は、
単純にマイナス側をひっくり返した直流化(全波整流)なのかもしれません。(とはいえ、電圧は適切に合わせていると思います)なので、まあ、通常蛍光灯や電球と同じ、100Hzの音になります。
(※なお、フィラメント電球には極性ないので(蛍光灯も)、ACにそのまま接続しても、電流の+・ー変化どっちでも電圧が強ければ明るくなるので、整流(直流化)の必要はありません。)

同じエジソンバルブコンパチのやつですが、もうひとつは大手のちゃんとしたやつ。
もう交流のハム音(ブーンという音)は聞こえません。


次は、情報機器の表示の聴き比べ。
動画4:いろんなディスプレイ

まず、PWMによるデジタル調光について。
デジタル調光とかPWMでの調光というのは、点灯の明るさを一定にしつつ、人の眼に感じられない速さで間欠的にちょっとだけ消灯を入れる事で、時間変化ににぶい人の目に暗くなったように見せています。ですので、この点滅周期が可聴範囲なら音が聞こえます。明るさが変わっても、周波数は変わりません。パルスの幅は音色の違いで現れます。なぜ、調光をこういうふうにするかっていうと、実は電流や電圧を微妙に調整する回路より、高速なON/OFF回路で、OFF時間を調整する回路のほうが、安くて安定したものをつくり安いからです。
デジタル調光とか、PWM(pulse width modulation とかいいます。

MACWin7ノートPCで「豆腐屋ラッパ」
調光のPWMの周波数でやはり音が聞こえます。しかし、最大輝度では、PWMする必要ないので音はしません。

もう1台のPCも横に並べました、いい具合にPWM変調周波数が違ってるので、「と〜ふ〜」と豆腐屋のラッパの演奏できました。(ちなみに、Winノートは全部この音高ってわけではなく、機種により違うはずです)

iPhone とケータイ
アイフォンもおそらく調光はPWMのはずで?すが、割と高めですが、音は聞こえます。
ケータイも外のお飾りのLEDは盛大にPWMされてますが、ディスプレイは最高輝度でない設定ですが、こちらは全く音は聞こえません。

一般に、回路、発光素子の特性との関係で小面積だと高速に点滅させられるし、おおむね高周波数なほうが効率いいので、こういう小型機器は、高い周波数のPWMで輝度調整しています。(はず)

●デジタルTV
 輝度最大にしてもこれはだめですね。TVだと映像のキレのために、OFFの制御を入れたりするからそれのからみかなぁ。(わかる方教えてください)
(曲: BOOM BOOM SATELLITES の 「Back On My Feet 」のPVです)



動画4:おまけ おもちゃ、時計、赤外リモコン

●クマのライティングおもちゃ
 いろいろ光るぬいぐるみです。最初はベタ点灯らしく音は聞こえませんが、ぼわーと明るさが変化するところ調光にやはりPWMを使っておりそこの変調周波数が聞こえます。

●赤外リモコン
可視光じゃないですが、この太陽電池は赤外感度もあるようで、赤外リモコンの音が聞こえます。
家電用赤外リモコンのパルスの周波数は三十数kHzなんできこえませんが、データのフォーマットの隙間のところなんかで、可聴範囲の変化があるので、音が聞こえます。

なお、iPhoneのカメラでとっているので、赤外は写ってません。

昔のデジカメものは、感度欲しさに色味がおかしくなるの覚悟で、赤外カットをいれないでバンバン近赤外の光が写ってましたが、最近はかなり安いやつでも、リモコンの光が写るのがめっきりなくなりました。



こんなふうになるのも、以前の記事 http://d.hatena.ne.jp/junaz/20100429/1272555235 で書いたように、
視覚=空間的な分解能は大(1度の数十分の一)、 時間的分解能は小(数十Hzまで)
聴覚=時間的分解能は小(数度〜数十度レベル)、時間的分解能は大(数KHzまで)
という差があるので、眼で感じられない変化も音だとてきめんに感じ取ることができるというわけですね。