人 間の網膜には錐体というRGBに対応する視覚細胞と、明暗に対応する桿体細胞があります。視野の中心部には錐体細胞が馬鹿げた密度で配置されています。そ の周辺では錐体細胞は減り、桿体細胞がそれなりに多く配置されています。で、何を言いたいかというと、実のところ人間が「自分の目は解像度高い」と思って いるのは間違いだとことです。それが言えるのは視野の中心部のみ。周りはボケボケにしか写っていません。

では、自分の視野についてどうして「高解像度」と思っているのかというと、おそらく理由は2つあります:

  • 目(視野なり視線なり)を動かして(目のサッカード運動(?)というらしいです)、その結果得られたものを合成(?)している
  • その上で、「高解像度」というのはただの勘違い(周囲はこうなってる気がするというラベルとかタグとかが貼り付けられてる感じかも)

なので、普段は自分の視覚の特性に気がつかない。

では、これを逆手に取ったUIは作れないだろうか。そう考えると、実は「今、編集している部分の数行だけ大きく表示して、その前後は小さく表示する」というエディタが昔にはあったりします。

サッカード運動の最中に提示している情報を切り替えても、(当然ものによりますが)気づかれないとか(切り替わっていることを知覚してはいるが、情報の洪水に対してそれを無視する戦略をとっているらしい)。文字列とか本とかを読んでいると、気づきにくいらしいです。

そうすると、上のエディタの例だけではなく、google glassあたりにおいて、目が動くのを検知して、高解像度の部分を変えたり、提示情報を変えたりすることで、表示領域を有効利用できるんじゃないかという気がします。

ちょっと処理が面倒になると思いますが、小さいカードUIよりは、実質的に多少なりとも広い表示領域を提供できるようになるような気がします。余計な計算が入ることになるので、そんなことはやらないというのが結局よろしいのかもしれませんが。