論文一覧に戻る

査読者 1

総合点

4

確信度

3

コメント

端末内蔵のセンサやフリックの特徴量から端末把持とユーザの姿勢を推定しており,手法としては一般的な特徴量抽出と機械学習を用いており,一定の性能は出ているように思います.

しかしながら,以下に挙げる理由により有用性に疑問があります.
筆者らは冒頭,把持姿勢の認識はレイアウトの適応的変更に利用できると述べています.この点は査読者も同意するのですが,把持姿勢は刻々と変化していくと考えられます.フリック入力するときはフリック用の把持姿勢になり,もとのアプリに戻るときは別の把持姿勢になります.つまり,提案手法によりフリック中のデータから把持姿勢を推定しても,フリック入力中のレイアウト変更にしか利用できず,有用ではないように思います.この点について,筆者らはレイアウト変更すべき状態として何を想定しているのか,そしてそれがフリック中の情報から推定できるものなのか,あるいはフリック中のレイアウト変更しか考えていないのかなどを明確にしてください.

センサデータから特徴量抽出して機械学習に入れれば,人やモノの様々な状態がそれなりに推定できるとは思いますが,それをどのように利用し,問題点が解決することとつながらないと研究としては弱いと思います.とくに今回の研究では把持状態というこれまでも識別対象とされていたものであり,把持状態自体を認識できるという点には新しいアイデアは見られないかと思います.

採録判定時のコメント

日本語フリック入力中の姿勢センサの情報を元に把持状態を推定するアイデアは面白い。認識手法自体はオーソドックスながら、関連研究の調査・検証を深く行っており、評価結果からは一定の性能が得られていると判断できる。一方で、得られた推定結果が有効となる適用先が少ないことに加え、200文字を交差検証するなど評価手法に疑問も残ることから,ショート採録と判断された。

レビューサマリ

フリック入力の特徴から姿勢・把持推定を行うというアイデアの研究である.構成もよく,しっかりと書かれた読みやすい論文でした.

評価と応用に関して査読者よりコメントを頂いています.
以下にまとめましたので,対応可能なものについては対応してください.

■実験について
・漢字変換まで要求したものを入力データとしたのか不明であった.変換があると特定の操作が多くなることがあると思われるため,その点を考慮したのか明記するとよい.

・一人当たり50文字であるが,同じ姿勢で打ち続ける文字数としては多すぎるように思います.どれくらいの文字数で入力する想定なのか,その想定として今回の文字数は妥当なのか,今よりも文字数が少ない場合の識別精度はどれくらい悪くなるのか明らかにするとよりよい.

・200文字だと,テストデータにある文字を学習していない場合が頻発するのではないか.そうならば,座標が重要であるという結果と矛盾する.

■応用について
・応用が不明瞭です.フリック中の姿勢を推定するので,フリック入力中のみのサービスかと思いますが,フリック入力エリアは固定なので,どのような便利さがあるのか明示できるとよいと思います.

■デモビデオについて
・右手親指から左手親指に切り替える直前にすでに左手親指モードに変わっているように見える.これは右手親指のBS入力が認識ミスしたのかと思った.じっくり見ないと気づかないですが,口頭発表で同じビデオを使われる場合はお気を付けください.

■類似研究
・奈良先端科学技術大学院大学の平部らが行っているTouchContextはフリック入力に限らず,タッチ状態で姿勢を含めた様座な状態を識別しようとしている.本研究はフリック入力に限ったものですので,状況を限定しないものと比べて精度が上がっていなければ意味がないことになります.そのあたりの比較があるとより良いと思います.

その他コメント

査読者 2

総合点

7

確信度

3

コメント

フリック入力の特徴が姿勢識別に使えるというアイデアの研究です.著者らもよく関連研究を調査されていますし,目的,仮説,検証の流れもしっかり書かれていて詠みやすい論文でした.

ただ,評価に関して,色々と気になるところがあります.

例えば,交差検証をされてはいますが,もとのデータが1姿勢当たり1試行(200文字程度文)を分割しています.例えば同じ「立位・両手入力」であったとしても,連続で入力し続けたものではなく,いったん姿勢を変え,それからもう一度「立位・両手入力」に戻したデータを使わないと,正しい精度は見えてこないのではないかと思います.また,1姿勢あたり200文字程度ということは,交差検証をするときに,テストデータ中にある文字が学習データに存在しないことも頻発しているのではないでしょうか.これは,フリック座標が重要だったという結果と矛盾するようにも思います(もしテストデータのある入力文字が正解姿勢の学習データに存在せず,他姿勢に存在した場合,座標の寄与度が高かったということはその文字は間違えるということではないのでしょうか).

添付されていたビデオを見ると,最初に右手親指で入力していて,左手親指に切り替える直前にすでに左手親指モードになっているように見えます.これは,右手親指のBSの入力が左手親指だと判断されたということでしょうか.とすると,連打していたBS入力の後半は認識エラーを起こしていたことになります.そういうように見ていくと,ビデオ中の認識精度は50~70パーセント程度に見えたのですが,なぜそんなに悪いのでしょうか.

関連研究として,奈良先端科学技術大学院大学の平部らが行っているTouchContextの研究も近いのではないかと思います.これはフリック入力に限らず,タッチ状態で色々識別しようというテーマで,姿勢識別も狙っています.他の関連研究に関してもそうですが,本研究はフリック入力に限ったものですから,限らないものと比べて精度が上がっていなければ意味がないことになります.そのあたりの比較も足りていないように思います.

応用に関してですが,これは,前提として識別するフリック入力エリアは変更出来ない(変更するパターン毎に学習が必要),かつ,フリック入力中のみのサービスと考えると,いったいどのような便利さが提供出来るのかをサービス例として明示出来るとよいと思いました.原稿中で例示されているアプリケーションは1つのボタンの場所を変える,というものであり,具体的にどのような応用に使えるのかがよくわかりませんでした.確定など文字入力に必要な機能はフリックエリアにあると思いますので,そういった把持姿勢識別が役に立つ状況が知りたいところです.

査読者 3

総合点

5

確信度

2

コメント

 本研究は,スマートフォンのタッチパネル,加速度センサ,ジャイロセンサ,気圧センサからデータを取得,83個の特徴量を抽出し,教師ありの機械学習により把持姿勢(5種の持ち方,2種の姿勢)を識別する手法を提案した.また,評価実験として,4名に10種類の把持姿勢において50単語を入力させ,そのデータによる4種類の学習アルゴリズムを用いた識別精度を算出する実験を行い,立位/座位のみの場合に,どのアルゴリズムでも90%を超える精度を得られることを確認した.また,本提案を取り入れたアプリケーション例として端末UIを動的に変化するアプリケーションを作成し,実用可能性も示している.
 識別精度実験の被験者が4名と少ない点は問題ですが,提案手法の正確性,妥当性は高く評価します.また,考察において誤認識についてもよく考察されており,同様の研究を行う際に参考になる研究かどうかという観点において有用性についても評価できると考えます.
 論文の修正としては,以下が気になりましたので,あげておきます.対応できる点は対応をお願いいたします.
・実験のための自作のIMEと実験時に被験者に入力させた単語の内容に関係する点ですが,漢字変換まで要求したものを入力データとしたのでしょうか?変換があると特定の操作が多くなることがあると思われるのでその点の考慮が必要だったのかが気になりました.
・今回の実験の1セットあたりの入力文字数平均が203.2文字ということですが,この文字数は使用想定によっては多すぎるため,ユーザビリティに影響が出ることが考えられます.アプリケーション例で示した点も合わせて将来の展望としてはどれくらいの文字数で入力する想定で姿勢識別を利用する予定なのか,その想定として,今回の文字数は妥当なのか,今よりも文字数が少ない場合の識別精度はどれくらい悪くなるのかという点が気になりました.