引用元:<http://japanese.engadget.com/2014/09/09/cmos-1-egs/>
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
CMOSカメラ1台で認識するハンドジェスチャ入力システムEGS発表。東大発のエクスビジョンが開発
9月9日、エクスビジョンがPCやスマートフォン向けジェスチャ入力システム『エクスビジョン・ジェスチャー・システム』(EGS)を発表しました。カメラとして一般的なCMOSセンサを搭載する製品1台のみを使う(=複数カメラや深度センサーを使わない)点から、Kinectベースのシステムなどに比べて低価格な市場を狙えるとアピールします。
同社は高速画像処理技術を柱とする企業。Engadgetでもお伝えした東京大学 石川渡辺研のジャンケン必勝ロボを開発した石川正俊教授が取締役を務める、いわゆる大学研究室からのスピンアウトベンチャーです。
ジャンケン必勝ロボでは高速画像処理を人間の出した手を認識(してロボットが後出しをする)ために用いていますが、EGSでも手の認識精度を上げるために使用。画像キャプチャー時のフレームレートを多くすれば、1コマあたりの移動量は小さくなるため、それだけ移動を検知できる精度は上がるという理由です。
ジャンケン必勝ロボは1000fps(毎秒1000フレーム)で画像を解析していましたが、今回は比較的低コストを狙ったこともあり、解析精度は100~120fpsと遅め。同社の説明によれば、今回ターゲットとしている1.2~3mの範囲では、これでも十分な認識精度が得られるとのことでした。
同社がアピールするもう一つのメリットは、OSやアプリからはタッチパネルとして認識される点。現状では手を1点として認識する仕様なので(手を握るとタップ扱いになるという動作です)、2点タッチ相当ということになりますが、アプリ側の修正を必要としない仕様。
発表会場のデモでも、タップやスワイプ、ピンチズームといった基本動作は、両手でということになるものの、一通りが実装されていました。
一方でジェスチャの動作に関しては、現状ではマルチタッチとの互換性をしっかりと確保したいとのことで、認識スタートとなる「手を振る」、タップとなる「手を握る」など、限られた動作のみとなっています。認識範囲に複数人が入った場合は、手を振ったユーザーの手を追跡し、認識範囲外に出るまでは認識し続けるという仕様でした。
ただし(もちろん)ジェスチャの種類はソフトウェア側での増加が可能なため、開発パートナーの要求に応じて拡張を予定しているとのこと。
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
いろいろな分野に応用できそうですね。
今後の主流になりそうな予感です。
コメントをお書きください