2つを合体させるとタンジブルでソーシャルなコンピューティングがすぐ作れるんだけど、実装上は相性悪いんだよね現状では。

PhysicalComputingとwebはそのままでは接続出来ない。マイコンにTCP/IPが直接来たとしても一つの「モノ」にはならない。

間に何か挟まなければならない。でもそうなると、3つ以上の技術の組み合わせになるからなかなか手を出せない。

なぜかというと

PhysicalComputing(電子工作で作ったUIとか)だけだと、かなり表現力が弱い。

具体的には「テキスト」の表示に使える部品が、16×2のキャラクタLCDや、DontronicsのLCD7セグメントLED、ニキシー管、ビットマップLCDぐらいしか無い。

それに対して、web serviceにあるRSSとかは「テキスト」なので、相性が悪い。

純粋なPhysicalComputingに合うwebサービスは、天気や温度や渋滞情報とか、テキストデータでfeedされているけど意味を表しているテキストだけだ。

だってね、そりゃ今も昔もwebには、こういうデータしか流通していない。

1.コンピュータがデータ間の相関を計算可能

かつ、

2.人間がそのまま見たり読んだりして意味を理解可能

なデータ。全部がコレを軸に回っている。具体的には、「text」「image」「sound」そして「map」

こういうデータのまわりに、メタデータとかを人が写真見て「これはshibuya food cakeってタグ付けよう」とか思ってメタデータ付けるわけだ。

みんなわかっている事だけど、GUIでは足りなくてTUIだとしても、テキストは消せない。

アンビエントに「意味」も伝えるには、バックグランドでオントロジとか回すだけでも足りない。

Flashとかも使って画面作ったほうがいい。

人間中心デザインとか、形とか、インタラクションデザインとかの部分での工夫もあるけど、webにあるデータの意味を表現したりとか、読むことの中からしか意味が現れないRSSみたいなものから現実世界に引っ張り出す時のジャンプ(変換)の仕方が工夫どころなんだけど

あー、何が言いたいかというとXPortとArduinoつなぐんだったら、何かproxyサーバ立てないと対して面白くないでしょという事。

必要なのはこういう分析じゃなくて実行可能なプランと、それと対になる目的や利益だな。トレードオフなのでこういうのは考えても仕方がないな。十分把握しているんだから何か閃こう。

合宿ワークショップがんばります