Header image  
ウェアラブル・ユビキタス・エンタテインメント
の研究を推進しています
 
   最終更新日 2013年11月10日
 
 
 
 


 
ウェアラブルセンシングの課題・応用

  1. はじめに
  2. ウェアラブルコンピューティングと行動認識技術
    1. 行動認識技術に基づくサービス
    2. ウェアラブルセンサを用いた行動認識技術
  3. センシングを活用した情報提示技術
  4. センシングを活用した情報入力技術
  5. ウェアラブルセンサを用いた行動認識の研究動向
  6. おわりに

4 センシングを活用した情報入力技術

ウェアラブルセンシングを活用すると,自動的にシステムに対してユーザの状況や行動を入力でき,ユーザに負担をかけずに情報を蓄積できる.例としてよく行われるのが利用者が体験した事柄をそのままコンピュータに記憶させようというライフロギング[1]である.蓄積データをもとに,どこかに置き忘れたものを検索できるもの探し支援システム[2]や,遠隔診断を行うネットワーク化された健康管理システム[]が開発されている.新たなセンサの活用例として,筆者らはにおいセンサを用いることで食事やトイレ等の情報を正確に認識し,ライフログサービスを提供するシステムを提案した[3].

情報入力にセンサを活用した例としては,下図に示すように体に装着した加速度センサにより画面上の棒の角度制御を行い,交点をポインティングするXangle[4]や,さらに下の図に示すように靴に装着したセンサを用いて足のステップを認識することで音楽プレーヤ等の制御を行うfootstep[5]などのインタフェースが提案されている.このようなジェスチャを用いた機器操作は,ユーザの自然な動作をコンピュータの入力に使えるという点で有力であるが,そのジェスチャが利用したいときに行えるかどうかが重要になる.そこで筆者らは,ジェスチャの社会性を評価し,人前で行うのが不自然でないジェスチャセットを求める研究[6]や,人がものを持って行う動作27種類に対して,センサの位置や個数が認識に与える影響の評価研究[7]を行っている.

4-1
Xangle

4-2
FootStep

エンタテインメントにウェアラブルセンシングを活用することも有力である.例えば,加速度センサを用いてダンスの動きを認識し,動きに合わせてLEDを光らせたり音を出す服(下図)[8]や,さらに下の図に示すように,パフォーマがあたかも空間上にシャボン玉を吹いているかのような動作を行うと,実際にシャボン玉が表示されるシステムが実現できる[9].また,着ぐるみに対して適切な情報支援を行うシステム[10]や,ドラムスティックにセンサをつけることで振りを認識し,特定のエリアを叩いたときだけ電子音を鳴らすシステム[11]も実現されている.

センサを用いることで高度な衣服も実現できる.自分の感情に合わせて光る服や,向いている方向に応じて色が変わるアクセサリ[12],さまざまな情報を表示するディスプレイ付き服などこれまでに存在しなかった機能や表現力をもった服が実現できる.

4-3
電飾を用いたダンスパフォーマンス

4-4
シャボン玉を飛ばすパフォーマンス

5へ (続きを読む)

参考文献

[1] J. Gemmell, G. Bell, and R. Lueder: MyLifeBits: A Personal Database for Everything, Communications of the ACM, vol. 49, Issue 1, pp. 88--95 (2006).
[2] T. Ueoka, T. Kawamura, Y. Kono, and M. Kidode: I'm Here!: a Wearable Object Remembrance Support System, Proc. of the 5th International Symposium on Human Computer Interaction with Mobile Devices and Services (MobileHCI '03), pp. 422--427 (2003).
[3] Y. Kobayashi, T. Terada, and M. Tsukamoto: A Context Aware System Based on Scent, Proc. of the 15th International Symposium on Wearable Computers (ISWC '11), pp. 47--50 (2011).
[4] T. Horie, T. Katayama, T. Terada, and M. Tsukamoto: A Pointing Method Using Accelerometers for Graphical User Interfaces, Proc. of Augmented Human Conference 2012 (AH 2012), No. 12, pp. 1--8 (2012).
[5] 山本哲也,義久智樹,寺田 努,塚本昌彦: ジョギング時における情報機器利用のための足ステップ入力方式, 情報処理学会論文誌,Vol. 50, No. 12, pp. 2881--2888 (2009).
[6] T. Yamamoto, T. Terada, and M. Tsukamoto: Designing Gestures for Hands and Feet in Daily Life, Proc. of the International Symposium on Emerging Research Projects, Applications and Services (ERPAS 2011), pp. 285--288 (2011).
[7] K. Murao, T. Terada, A. Yano, and R. Matsukura: Evaluation Study on Sensor Placement and Gesture Selection for Mobile Devices, Proc. of the 11th International Conference on Mobile and Ubiquitous Multimedia (MUM 2012) (2012).
[8] M. Fujimoto, N. Fujita, Y. Takegawa, T. Terada, and M. Tsukamoto: A Motion Recognition Method for a Wearable Dancing Musical Instrument, Proc. of the 13th IEEE International Symposium on Wearable Computers (ISWC '09), pp. 9--16 (2009).
[9] J. Ikeda, Y. Takegawa, T. Terada, and M. Tsukamoto: Evaluation on Performer Support Methods for Interactive Performances Using Projector, iiWAS2009 Special issue in Journal of Mobile Multimedia (JMM), Vol. 6, No. 3, pp. 207--226 (2010).
[10] T. Okazaki, T. Terada, and M. Tsukamoto: A System for Supporting Performers in Stuffed Suits, Proc. of the International Conference on Advances in Computer Entertainment Technology 2012 (ACE 2012), pp. 85--100 (2012).
[11] H. Kanke, Y. Takegawa, T. Terada, and M. Tsukamoto: Airstic Drum: a Drumstick for Integration of Real and Virtual Drums, Proc. of the International Conference on Advances in Computer Entertainment Technology 2012 (ACE 2012), pp. 57--69 (2012).
[12] Y. Kishino, H. Fujiwara, T. Tanaka, A. Shimosuka, T. Yoshihisa, M. Tsukamoto, T. Itao, M. Oe, and S. Nishio: Bloom Accessory: Accessories Using LEDs with Remote Control, Proc. of 8th IEEE International Symposium on Wearable Computers (ISWC '04), pp. 180--181 (2004).

連絡先

mail

tsutomu[[at]]eedept.kobe-u.ac.removehere.jp