2018年6月11日月曜日

視線入力がアツい!

iOS 12で採用されるARKit 2の「Face Tracking」を利用し、視線でiPhone Xを操作するデモが公開される。



https://applech2.com/archives/20180609-ios-12-arkit-2-control-iphone-x-gaze-tracking.html

カメラの性能が上がり、やれることが増えていく中、視線入力に関する技術や情報が増えてきた感がありますね。

視線入力は身体を動かせ(さ)なくても操作できるので身体への負担が少なく、また、両手が塞がっていても操操作できるのが便利。

でも、個人的に「便利」と考えているのは、視機能に関するアセスメントがより正確に取れるということ。

「○○ちゃんはちゃんと対象物を見ていますよ」等という話はよく聞かれるけれど、それが本当かどうかは誰にもわからないんですよね。

もしかしたら、近くを見ているだけで、対象物は見ていないとか、視機能の関係で正面では捉えられないだけで、視界のどこかでは認識しているなんてこともありますし。

でも、アイトラッキングなどの機能があれば、そのような視線の動かし方をしているかや、どこを注視しているかが客観的に評価できる。
つまり、これは普段の支援や提示方法において非常に重要な手掛かりになるということです。

「視線入力」=「手を使わなくてもいい」

という単純なとらえ方ではなく、「視線を把握できるってことでは?」と考えると、色んな可能性が出てくると思うんですよ。

どのくらいの距離で、どの方向に提示したら、一番把握しやすいのか。
どの色が見やすいのか。
画面は何分割位が使いやすいのか。
などなど

「考えだしたら夜も寝られやしない、、、」(古いか)

流行りものは一気に形として広がりますが、あくまでも「道具」や「機能」が増えるということであって、
「使い方」のは私たちのアイデア次第なんだと思います。

0 件のコメント:

コメントを投稿