UIST2007 Day3

Tech Note: BLUI: Low-cost Localized Blowable User Interfaces

Shwetak Patel, Gregory Abowd/Georgia Institute of Technology

http://farm3.static.flickr.com/2005/1535900723_54c47ad25e_m.jpg

ディスプレイに吹きかける息を入力にする。ノートPCのマイクで息の音響を分析して、ディスプレイのどこに息が吹きかけられているかを認識する。

息をつかうインタフェースは慶応大学(当時)の伊賀さんたちの"Kirifuki"などがあるわけだが、今回のポイントは、特別なセンサーなしで、普通のノートPCのマイクから拾った音だけで息を吹きかける場所が認識できる、ということだろう。

参考:(Kirifuki)

Kirifuki - YouTube

ThinSight: Versatile Multi-touch Sensing for Thin Form-factor Displays

Steve Hodges, Shahram Izadi, Alex Butler, Alban Rrustemi, Bill Buxton/Microsoft Research

http://farm3.static.flickr.com/2004/1535901993_a2de4ed9a4_m.jpg http://farm3.static.flickr.com/2098/1536769260_41964f4461_m.jpg

液晶ディスプレイの裏側(バックライトのさらに裏)に赤外線近接センサーをアレイ状に装着して、マルチタッチディスプレイとする。バックライトパネルに赤外光が通るための小さな穴をあけている。指だけではなく、ディスプレイ上に置いた物体の形状も認識できる。(best paper award)。UIST論文投稿時点では画面の一部分を覆うものしかできていなかったが、CHI用に全画面版を製作した。

これは非常に面白いのだが、液晶ディスプレイそのもので光を感知するものがすでにシャープなどから発表されているので、究極的にはそちらに置き換えられてしまうのではないか、と思った:

参考: http://www.sharp.co.jp/corporate/news/070831-a.html

LucidTouch: A See-Through Mobile Device

Daniel Wigdor, Clifton Forlines/Mitsubishi Electric Research Labs & University of Toronto, Patrick Baudisch/Microsoft Research, John Barnwell, Chia Shen/Mitsubishi Electric Research Labs

http://farm3.static.flickr.com/2056/1536770648_86d9f35668_m.jpg

画面の裏から操作する。というのは先行事例がいくつもあるのだが、この研究ではディスプレイ裏の手の形を半透明に表示しているのが特徴。ディスプレイが半透明の板であるかのような操作メタファーを提供している。両手で持って操作する場合、背面の指でテキスト入力を行ったりする。ソフトウェアキーボードが左右の手に対応して分割されている。また、アイコンを右手から左手に渡すときに、画面中央に指が届かないのでアイコンが伸びたりする。

Programming by a Sample: Rapidly Prototyping Web Applications with d.mix

Bjoern Hartmann, Leslie Wu, Kevin Collins, Scott Klemmer/Stanford University

Webアプリのマッシュアップを直接操作で行う。たとえばFlickr画面から何かをコピーする操作を示すと、それに対応するFlickrAPIのコードが自動生成される。

http://hci.stanford.edu/dmix/

来年は...

UIST2008は10月19日から10月22日まで、モントレー(カリフォルニア)で開催の予定。