2つを合体させるとタンジブルでソーシャルなコンピューティングがすぐ作れるんだけど、実装上は相性悪いんだよね現状では。
PhysicalComputingとwebはそのままでは接続出来ない。マイコンにTCP/IPが直接来たとしても一つの「モノ」にはならない。
間に何か挟まなければならない。でもそうなると、3つ以上の技術の組み合わせになるからなかなか手を出せない。
なぜかというと
PhysicalComputing(電子工作で作ったUIとか)だけだと、かなり表現力が弱い。
具体的には「テキスト」の表示に使える部品が、16×2のキャラクタLCDや、DontronicsのLCD、7セグメントLED、ニキシー管、ビットマップLCDぐらいしか無い。
それに対して、web serviceにあるRSSとかは「テキスト」なので、相性が悪い。
純粋なPhysicalComputingに合うwebサービスは、天気や温度や渋滞情報とか、テキストデータでfeedされているけど意味を表しているテキストだけだ。
だってね、そりゃ今も昔もwebには、こういうデータしか流通していない。
1.コンピュータがデータ間の相関を計算可能
かつ、
2.人間がそのまま見たり読んだりして意味を理解可能
なデータ。全部がコレを軸に回っている。具体的には、「text」「image」「sound」そして「map」
こういうデータのまわりに、メタデータとかを人が写真見て「これはshibuya food cakeってタグ付けよう」とか思ってメタデータ付けるわけだ。
みんなわかっている事だけど、GUIでは足りなくてTUIだとしても、テキストは消せない。
アンビエントに「意味」も伝えるには、バックグランドでオントロジとか回すだけでも足りない。
Flashとかも使って画面作ったほうがいい。
人間中心デザインとか、形とか、インタラクションデザインとかの部分での工夫もあるけど、webにあるデータの意味を表現したりとか、読むことの中からしか意味が現れないRSSみたいなものから現実世界に引っ張り出す時のジャンプ(変換)の仕方が工夫どころなんだけど
あー、何が言いたいかというとXPortとArduinoつなぐんだったら、何かproxyサーバ立てないと対して面白くないでしょという事。
必要なのはこういう分析じゃなくて実行可能なプランと、それと対になる目的や利益だな。トレードオフなのでこういうのは考えても仕方がないな。十分把握しているんだから何か閃こう。
合宿ワークショップがんばります