多くの人は,大量の画像データベース内から魅力的な画像を検索することを望んでいる.本論文では,そのような検索を実現するための基盤となる,人間の感性を考慮した新しい画像スコアリングを提案する.提案手法では,入力画像に対する類似画像を画像共有サイトから検索し,その類似画像に付加されているメタ情報をスコアリングに利用している.
我々は,遠隔地の対話者の接近を強調するシステムとして,同期ズームカメラ,同期移動ディスプレイを開発した.同期ズームカメラは,遠隔地の対話者の前進に連動して,遠隔地のカメラをズームインさせる.同期移動ディスプレイは,遠隔地の対話者の移動に連動して,ディスプレイを前後に移動させる.我々は実験を行い,これらのシステムが社会的テレプレゼンスを強化することを観測した.単なる人の移動と,単なるカメラのズームには効果がなかったが,同期ズームカメラには効果があった.また,同期移動ディスプレイと単なるディスプレイの移動にはどちらにも効果があった.
Wikiは,大規模かつ多数の利用者に開かれたオープンな形で運営されているものに限らず,小規模なグループのメンバ内のみで閉じたクローズドな形のものも多数存在する.しかし,そのような小規模かつクローズドなWikiの利用はどうすれば活発に,効率的になるかに関する知見は十分に得られていないのが現状である.本論文は,そのようなWikiの利用形態について,著者の一部が開発・試験提供を行っているqwikWebのユーザを対象に,既存の研究では行われなかったユーザへのアンケートとアクセスログの関係の検討,そして複数グループをまたがった分析から解明を試みた.その結果,Wikiの利用方法を決定し,適切に促すユーザの存在が重要であること,そして直接対面による接触頻度を高めることがWikiの利用を促していることが示唆された.これらの知見は,小規模かつクローズドなWikiのシステム設計や運営のガイドラインの決定へ生かされることが期待される.
本研究では,遊び場をデザインするための科学的アプローチとして, 子どもの行動計測データから構築された計算モデルに基づく遊びのデザイン方法の確立を目的に,遊具で遊ぶ小学生程度の子どもの行動を,センサを子どもに取り付けることなく計測できる機能と,インタラクティブな遊びを可能にする機能を備えたクライミングウォール型センサ遊具を開発した.開発した遊具の54 個の各ホールド部には,荷重センサとLED 表示装置が取り付けられており,全ての力センサの出力を同期して記録することが可能である.本稿では,開発したインタラクティブ遊具のシステム構成,開発遊具を用いた1226 人の子どもの行動計測,登り行動や落下,発達の分析について述べる.
本稿では,身体動作と複数筋活動の動員様式などの容易な同時把握を可能とする,着用型の筋活動光提示センサスーツbioLightsの開発について述べる.bioLightsでは,身体動作に伴う筋活動を体表上の筋の位置,形状,そして実時間で光の明るさに反映させ提示することで,複数筋活動を直感的に知覚させる試みを行っている.対象とする筋活動として,筋電位に基づく%MVCおよび筋張力が提示可能であり,これを着用型提示システムとして実現することで,既存のシステムでは困難であった,身体動作とそれに伴う複数筋活動の容易な同時把握を実現する.評価実験によりbioLightsのパフォーマンス,知覚特性を検証し,また脚部支援機器との併用実験および運動訓練への適用による,次世代リハビリテーション,体育教育における応用の可能性を示す.
本論文では,ユーザの姿を利用したファッションコーディネート支援システムsuGATALOGの提案を行い,その試作と評価実験結果について述べる.服装選びは,会う人,場所,予定などを考慮して服を選び,さらに,実際に着用し,自分の顔や体型に合うかを確認しなくてはならない労力を要する作業である.服は,手にとっても着用した姿が分からず,試着してはじめてそれが分かるため,何度も着替直すことがある.先行研究では,CGや,服だけの写真を用いてコーディネートを行う手法が提案されている.suGATALOGは,ユーザが着用した服を鏡で確認するタイミングで撮影し,その姿の写真をトップスとボトムスとに切り分け,組み合わせることでシミュレーションを実現する.また,複数のコーディネートを比較する機能や,新たなコーディネートを発見する機会を提供する機能などがある.本システムの有用性を検証するために3種類の手法との比較を行った評価実験の結果について述べる.
1枚の正方形の紙を折ることで形を作りだす「折り紙」は,日本に古くから伝わる遊びであり,我々の多くが幼少期に体験するものである.近年では,折り紙の数理に関する研究の成果により,複雑な折り紙作品を創作するための技術が発達してきている.しかし,まだ手指を正確に動かす能力が十分に発達していない幼児らを対象とした,少ない手順で簡単に折れる折り紙作品の創作については,これまでに十分な研究がされてこなかった.そこで本稿では,4回以下の折り操作で作ることができる単純な折り紙作品を,新しく創作するためのシステムを提案する.本システムは,あらかじめ4回までの折り操作で作ることができる折り紙の形を列挙し,それをデータベースに蓄えておく.ユーザが動物の顔など,折り紙で作りたい形をシステムに入力すると,それに類似した形をデータベースから検索し,折り方を提示する.近年の計算機の性能の向上により,このような力づくのアプローチでも目的を達成することが可能となった.幼児向けの折り紙作品に見られる「目の追加」を実装するなど,より実用的なシステムを構築した.
これまで自動作曲に関する研究は数多く行われてきたが,旋律生成のための新たなアルゴリズムやモデルの探求に主眼が行われており,生成結果をユーザがどう修正するかに関しては十分な検討は行われてこなかった.本稿では,システムが生成した楽曲をシステムの支援を受けながら編集できる自動作曲システムOrpheusBBを提案する.本システムの特徴は,ユーザが生成結果を編集すると音楽的に不自然にならないように残りの箇所を確率推論によって自動的に再生成する点である.この機能により,ユーザは音楽的に破綻することを気にせずに試行錯誤を繰り返すことができる.この機能を取り入れることで,楽曲制作における試行錯誤をより気軽に行えるようになることが,明らかになった.
階層のある場所においてユーザに階層間の位置関係を容易に把握させることを目的とし,各階層のパノラマ写真をシステムが保持していることを前提として,その異なる階層のパノラマビューを容易に切り替えて閲覧可能とするWorm Hole Viewを提案する. この提案インターフェースは,パノラマビューウィンドウ内で2つの階層を同時に自由な割合で切り替えて見ることができる. また,階層間を繋ぐ場所(階段,エスカレータ,エレベータ等)同士を結び付けるため,その場所にアイコン(階段等)を表示して対応関係を示す. これにより,ユーザは異なる階層の情報を得ながら,階層間を繋ぐ場所とその対応について容易に認識できるため,階層間の位置関係を理解することができる. この提案手法を評価実験で比較した結果,ユーザに階層間の位置関係を容易に把握させることができることが分かった.
モバイルデバイス上でリアルタイムで動作する``Augmented Reality''を実現する,高速でメモリ効率の良い特定物体認識手法を提案する.特定物体認識とは,入力画像に映る対象と,同一の物体が映っている画像をデータベース内から探し出す処理のことであり,中でもデータベース中の参照画像と,入力画像との対応点を求めることで画像検索を行う手法がよく知られる.この対応点の情報から,参照画像に対する入力画像の相対位置関係が計算できるため,この手法はマーカーレスARに広く応用されている.しかしながら,計算能力の低いモバイルデバイス上で実現するためには,次の2つの課題が残っている.一つ目の課題は,対応点の探索のために必要な局所特徴量の計算コストが大きい点である.二つ目の課題は,特定物体認識に要するデータベースのサイズや検索時間が大きくなり過ぎる点である.提案手法は,これらの2つの課題を解決する.提案手法を実装し,実行速度,メモリ効率について評価実験を行った.結果,モバイルデバイス上で実装した提案手法は,サーバ側で物体認識を行うタイプの既存のクライアント/サーバ型ARシステムと同等の性能を示した.
仮想物体とのインタラクションにおいて、仮想物体により高い現実感を持たせるための拡張現実感の研究が盛んに行われている。視覚情報に加え、聴覚や触覚といった感覚を仮想環境に応じて呈示することで、より高い現実感を得られると考えられる。我々は、特に触感覚に着目し、シースルー型のHMDを装着したユーザの手の上に仮想キャラクタを重畳して表示し、そのキャラクタの動きに対応した触感覚を呈示するシステムを構築した。本システムはユーザの手の姿勢を画像処理によってリアルタイムに認識し、動作に応じた仮想キャラクタの触感覚を、触覚グローブを通して呈示することが可能である。本論文では、ユーザが仮想キャラクタに直接触れた際の多感覚へのフィードバック呈示が可能なインタラクションシステムの構築と、ユーザ実験による評価について述べる。
拡張現実感(Augmented Reality: AR)をモバイル端末上で実現するモバイルARは,カメラを備えた高機能なモバイル端末などの登場により一般的になりつつある.ほとんどのモバイルARは,ユーザがモバイル端末のカメラを対象物体に向けることで,対象物体に関連する情報を合成してディスプレイ上に表示する.しかし,長い時間モバイル端末を対象物体に向けて掲げることは,ユーザに身体的疲労を与えることとなる.さらに,遠くにある物体や一部が遮蔽された物体をモバイル端末に搭載されたカメラで認識して,情報を合成することは困難である.本論文では,これらの問題を解決するために,"ShootAR"と呼ぶモバイルARの操作スタイルを提案する.ShootARでは,モバイルARにおけるユーザの操作を2つのステップに分ける.まず,既存のモバイルARシステムと同じようにモバイル端末を掲げた姿勢で,ユーザは端末のカメラが捉える画像から情報を合成して欲しい対象物体(あるいはその物体があるであろう空間)を探す.ここで,対象物体が見つかった場合,ユーザはその画像を撮影する(この動作を"shoot"という).その動作後,システムは撮影した画像と,それに近いデータベース上の高精細パノラマ画像をすり替える.これにより,ユーザは端末をかざす必要はなくなり,実際の物体を映していたとき以上のインタラクションがどこでも楽な姿勢で可能になる.我々は,このスタイルに基づいたモバイルARシステムを開発し,既存のモバイルARではできないアプリケーションを示す.
ウェアラブルコンピューティング環境では従来のコンピューティング環境とは異なり,ユーザは場 所や時間に縛られることなくコンピュータと接することになる,そのため,街で鞄を持っているとき に不意に入力を求められるなど従来の方法では入力することが難しい状況が起こりうる.本研究では, 両手両足のジェスチャ入力でメニュー選択等に入力を行う環境を想定し日常生活の様々な状況におい ても自然で効率的な入力手法を状況に応じて選択するインタフェースを提案する.本研究ではまず予 備実験により,両手両足の加速度センサによる入力が状況に応じてどのような特性をもつのかを明ら かにし,次の状況の変化を考慮したコマンド入力方法を実現する.評価実験により,コマンド入力方 のジェスチャを決定し,歩く,座る,立つの状況で両手が使えないときなどの変化に対応できるよう にした.
各種バイタルセンサを用いて生体情報を取得し活用しようとする研究が多く行われ,それによって有用性の高い知見が得られている.我々はこの様な生体情報を活かしたサービスの実現を目指し,脈波と呼ばれる,指先から取得可能でユーザの心理状態や健康状態を反映する生体情報の取得を,小型デバイスに搭載したセンサから日常的に行いたいと考えている.一方で従来の点取得型センサはセンサ部分に指先を合わせるという位置合わせを必要とするため,小型デバイスに搭載してユーザの負担なく容積脈波を取得することは困難である.我々はこの問題を解決するため,面センシングによる,位置合わせが不要な脈波取得技術を提案する.提案手法のセンシング面は面上の位置によらず脈波を取得可能で,また厚みや曲げ具合を自由に設計出来るため既存のデバイスへ容易に実装可能である.提案手法の有効性検証のため,実装したプロトタイプおよび既存手法である点取得型センサを用いて脈波を取得し,心理的な疲労やストレスの尺度であるLF/HFを算出し比較したところ,提案手法は点取得型センサと同等の性能を示し,またセンシング面の形状,センシング面に接触する生体部位の違い,照明の違いといった実用を想定した様々な条件の元でもロバストに脈波を取得可能なことが示された.
紙や布を指で縮めようとしたときに発生する「撓(たわ)み」のメタファを,画面のスクロールおよびズーム操作に適用したインタラクション手法を提案する.この手法は画面上のコンテンツを伸縮性の柔らかい材質と捉えており,通常のスクロールでは画面外へ押し出されていた領域が,コンテンツが歪められることにより画面内に残る.これにより画面内に残った領域を確認しながら次の操作へ移行することができるため,無駄なスクロールを減らすことができる.このインタラクション手法を評価するため,地図上のオブジェクトを比較して獲得するタスクを用いて,通常のドラッグ操作によるスクロールと比較した.その結果,提案手法は単純な移動では通常のスクロールと同様のパフォーマンスであり,元いた場所に戻る場合には,通常のスクロールに比べて操作量が少なく高速であることがわかった.
本研究は、紙の書籍をめくるのに近い感覚で電子書籍をプラウズできるインタフェース「Flip Interface」と、それを用いた新しい読書体験のインタラクションについての提案である。静電容量センシングの電極として銀インクを印刷した複数のフィルムを複数枚積み重ねたものをセンサとし、これをはじくことで紙をめくるようにページをブラウズできる。紙の書籍と人の関係を単に電子書籍において再現するのではなく、両者の関係から抽出した要素を電子書籍ならではのインタラクションとして提案する。プロトタイプを用いた質的調査の結果より、タッチパネルによる電子ブックリーダーよりも指先の感覚に訴え、質感豊かな体験をもたらすインタフェースとなっていることが検証できた。
家庭用ロボットに対する作業の指示ユーザインタフェースとして「紙カードを置く」というインタラクション手法を提案する.たとえば,「ここを掃除する」という紙カードを部屋において家を出ると,ユーザが家を出ている間にその場所が掃除される.提案手法は,音声を用いたインタフェースに比べて場所の指示に適している他,タッチパネルやリモコンを用いたインタフェースに比べて機械に苦手意識を持っているユーザに受け入れやすいものと考えられる.本稿では,紙カードのデザインとそれらを用いたインタラクション手法,実装したプロトタイプシステムの内容,および簡単なユーザテストの内容について紹介する.
ロボットの操作デバイスとして,ジョイスティックやゲームパッドが広く受け入れられている.しかし,これらのデバイスはボタンとロボットの動きの対応関係が直感的でないため,初心者が自由自在に操作を行うのは難しい.この問題を解決するため,我々はCG重畳表示を用いたロボットの遠隔操作インタフェース「TouchMe」を提案する.TouchMeでは,操作対象の作業空間を三人称視点で捉えたカメラ映像がタッチスクリーン上に映し出される.ユーザは,ロボットの操作したい部位に直接指を触れることによってロボットを操作することができる.我々のシステムはユーザに直感的な操作を提供し,少ない時間で操作を習得することができる.本論文では,TouchMeの概要および実装したプロトタイプについて説明する.また,3種類のタッチインタラクションの手法を提案し,ユーザスタディにおいてそれらを比較した結果を報告する.
少子高齢化が進む中,日常環境下で高齢者の物理的なサポートを行うデバイスとして,身体を持つロボットの利用が進んでいる.本研究では,買物という日常的な行動において,人に随伴して荷物持ちを行うという物理的なサポートを行うロボットに着目し,高齢者はどのようなロボットと一緒に買物を行うことを好むのか,という疑問を明らかにする.具体的には,特に目的を持たない雑談の有無と,カート・人型といった見た目の違いという,2つの要因がもたらす影響を検証する.そのために,実際のスーパーマーケットで,24人の高齢者による買物をロボットがサポートする,2×2要因の被験者内実験を行った.実験の結果,高齢者は,会話を行う人型ロボットを一緒に買物を行う存在として最も好むことが明らかになった.
本稿では,プログラミングの知識や経験が乏しいユーザでも簡単にロボットプログラミングが行える手法を提案する.提案手法は,物理的なロボットをマルチタッチ入力可能なテーブルトップ環境に導入することにより,ロボットへの直接的な入力のみでプログラミングを可能にする.プログラミング経験の無い大学生を被験者とする評価実験を通して,提案手法により被験者がロボットの動きを簡単にプログラムで表現できるようになるなど,直感的なプログラミングを行えることが示唆された.