About me

Kazuyuki FUJITA 藤田和之

藤田 和之 / Kazuyuki FUJITA

東北大学 電気通信研究所 准教授
Associate Prof., Research Institute of Electrical Communication, Tohoku University

Google Scholar / researchmap /

ICD Lab.(北村・藤田研究室)

Contact: k-fujita [at] riec.tohoku.ac.jp

Short bio:

2010年 大阪大学 大学院情報科学研究科 マルチメディア工学専攻 博士前期課程 修了.2013年 同研究科 情報システム工学専攻博士 後期課程修了.同年 株式会社イトーキ.2018年より東北大学 電気通信研究所 助教(2023年より東北大学プロミネントリサーチフェロー).2024年より同准教授.博士 (情報科学).ヒューマンコンピュータインタラクションおよびバーチャルリアリティに関する研究,具体的には,人の活動を取り巻く「ワークスペース」に着目し,空間全体またはその構成要素とのインタラクションを通して人のさまざまな活動を支援する「ヒューマン・ワークスペース・インタラクション」の研究に取り組んでいます.

I, Kazuyuki FUJITA, am an Associate Professor of Research Institute of Electrical Communication (RIEC) at Tohoku University. I received my Ph.D. in Information Science and Technology from Osaka University in 2013. I worked for ITOKI, an office space design company, and was engaged in research and development on future offices for 2013-2018. From 2018 to the present, I have been working at RIEC, Tohoku University (as Assistant Professor in 2018-2024 and as Associate Professor from 2024). I have also been granted the title of Prominent Research Fellow at Tohoku University from 2023. My research interests include human-computer interaction and virtual reality. More specifically, I focus on "workspaces" that surrounds human activities, and research Human-Workspace Interaction, which supports various human activities through interaction with the computerized or virtualized workspaces and their components.

Research

SwapVid

SwapVid

SwapVidは,講義動画のような資料のプレゼン動画のためのユーザインタフェースです.動画ビューアと資料ビューアを1つの画面に統合して互いに関連づけることにより,互いを参照しながらの探索タスクを効率化しています.

SwapVid is a user interface for presentation videos of documents such as lecture videos. The video viewer and document viewer are integrated into one screen and associated with each other to streamline the task of exploring while referring to each other.

CHI 2024
paper / video
インタラクション2024
paper
InflatableBots

InflatableBots

InflatableBotsは,VRにおける新たな触覚提示デバイスです.インフレータブル機構を搭載したモバイルロボットを複数台使って、狙った位置・高さに触覚対象物を配置できるシステムを実現しました.

InflatableBots is a encounter-type haptic device in VR. The system consists of several mobile robots with inflatable structures that allow to locate haptic objects in arbitrary position/height.

CHI 2024
paper / video
RedirectedDoors+

RedirectedDoors+

RedirectedDoors+は,VR空間内に配置された複数のドアを開けて歩行する際に,ドアノブの触覚フィードバックを再現するとともに,ユーザの進行方向を操作することで現実世界の限られた空間を有効活用するようユーザを誘導するシステムです.このシステムでは,全方位自走式ロボットの上にドアノブ型プロップを搭載した「ドアロボット」,このロボット複数台の配置を適応的に決定するための「ロボット配置アルゴリズム」,および,ユーザの歩行経路が物理空間内に収まるようユーザを誘導する「ユーザステアリングアルゴリズム」によって実現されています.

RedirectedDoors+ is a robot-based system that permits consecutive door-opening redirection with haptics. The system is mainly achieved with the use of three components: (1) door robots, a small number of wheeled robots equipped with a doorknob-like prop, (2) a robot-positioning algorithm that arbitrarily positions the door robots to provide the user with just-in-time haptic feedback during door opening, and (3) a user-steering algorithm that determines the redirection gain for every instance of door opening to keep the user away from the boundary of the play area.

IEEE TVCG (IEEE VR 2024)
paper / video
・Mar. 13, 2024 This research is press released by Tohoku University.
Opening New Doors in the VR World, Literally
・2024/3/29 日経新聞に本研究が掲載されました.
VR空間で「無限」歩行、狭い部屋でも可能に 東北大学
Visual-Auditory Redirection

Visual-Auditory Redirection using Real-World Auditory Cues

本研究では,現実空間から発せられる音手がかり(例:テレビの音,洗濯機の音)が,VR空間内でのリダイレクテッドウォーキング(体を回転させたときの視覚のズレ)への知覚に与える影響について調査しました.実験の結果,現実空間内の特定位置に固定された音源を提示した場合,リダイレクテッドウォーキングの効果が高まる(視覚のズレに気づきにくくなる)可能性が示されました.

This study investigated the effect of sound cues emitted from the real space (e.g., the sound of a TV and a washing machine) on the perception of redirected walking (visual manipulation when the body is rotated) in VR. The experimental results suggested potential enhancement of redirected walking (i.e., visual manipulation was less noticeable) when a fixed sound source was presented at a specific location in the real space.

HandyGaze

HandyGaze

HandyGazeは,環境内にセンサやマーカを設置せず,スマートフォンを持つだけで利用できる6自由度の視線トラッキング手法です.本手法では,スマートフォンの前面カメラと背面カメラを同時に使用しており,前面カメラでスマートフォンに対するユーザの視線ベクトルの推定を,背面カメラ(および深度センサ)ではあらかじめ取得した環境の3Dマップを復元することで自己位置推定をそれぞれ行うことにより実現しています.この手法は,例えば美術館・博物館での案内アプリケーションへ応用できると期待されます.

HandyGaze is a 6-DoF gaze tracking technique that can be carried out by simply holding a smartphone naturally without installing any sensors or markers in the environment. Our technique simultaneously employs the smartphone’s front and rear cameras: The front camera estimates the user’s gaze vector relative to the smartphone, while the rear camera (and depth sensor, if available) performs self-localization by reconstructing a pre-obtained 3D map of the environment. This technique could be used e.g., for gaze-based guidance applications in museums.

project page

Proc. ACM Hum.-Comput. Interact. (ISS 2022)
paper / video
インタラクション2023 インタラクティブ発表賞(一般投票)
paper / video
TetraForce

TetraForce

TetraForceは,スマートフォンの2つの面(タッチ面と背面)に対する2種類の方向(垂直方向と剪断方向)の力による入力を可能にするスマートフォンケース型の磁気式ユーザインタフェースです.本インタフェース,は3DoFで可動する背面パネルに磁石を配置し,その変位をスマートフォン内蔵の地磁気センサにより推定することで力の方向や強さを取得しています.プロトタイプを用いたユーザスタディの結果,ユーザによる4種類の入力が平均97.4%の精度で意図通りに検出できることを確認しました.また,ワークショップでは本インタフェースを用いた多数のアプリケーション例が提案され,応用範囲の広さを示しました.

TetraForce is a novel phone-case-shaped interface, which enables four types of force input consisting of two force directions (i.e., pressure force and shear force) and two force-applied surfaces (i.e., touch surface and back surface) in a single device. Force detection is achieved using the smartphone’s built-in magnetometer by estimating the displacement of a magnet attached to a 3-DoF passively movable panel at the back. Our user study demonstrated that the input using the interface was detected as intended by the participants with a success rate of 97.4% on average for all four input types. An ideation workshop also derived a variety of useful application ideas.

project page

Proc. ACM Hum.-Comput. Interact. (ISS 2022)
paper / presentation video
WISS 2022
paper / video
WaddleWalls

WaddleWalls

WaddleWallsは,オフィス等の作業スペースにおける視覚的な開放性を状況に応じて調節するために,移動または高さ・幅の変更が可能な自走型パーティションシステムです.本研究では,上下昇降スタンド,ロールスクリーン,移動ロボットを用いてWaddleWallsのプロトタイプを実装し,これを用いた応用シナリオの例を示しました.

WaddleWalls is a self-actuated stretchable partition system whose physical height, width, and position can dynamically change to regulate openness of the workplace. We implemented the prototype with a height-adjustable stand, a roll-up screen, and a mobile robot. We then show some example application scenarios to discuss potential future actuated-territorial offices.

project page

UIST 2022
paper / video
ConfusionLens

ConfusionLens

ConfusionLensは,機械学習による画像分類結果をインタラクティブに可視化するユーザインタフェースです.従来の混同行列にFocus+Contextによる可視化を適用することで,1画面上で全てのインスタンス画像を表示しながら,タスクに合わせて表示レイアウトをシームレスに切り替えることを可能としました.初期プロトタイプとして,数百のインスタンスをサポートするインタフェースに加え,インスタンスのソート,フィルタリング,活性化マップの可視化といった実用的な拡張機能を実装しました.

ConfusionLens is a dynamic and interactive visualization interface that augments a conventional confusion matrix with focus+context visualization. This interface allows users to seamlessly switch table layouts among different views while observing all of the instance images in a single screen. Our initial prototype provides a user interface that supports hundreds of instances and its several practical extensions such as activation map visualization and instance sorting/filtering.

UIST 2022 Demo
paper / video
RedirectedDoors

RedirectedDoors

RedirectedDoorsは,VR空間内でドアを開ける動作中にユーザの進行方向を操作するリダイレクション手法です(リダイレクション手法とは,歩行を伴うVR体験を限られた物理空間内で楽しむために,ユーザに気づかれないように移動量や方向をだますことで物理空間を有効活用しようとする手法のことをいいます).具体的には,開扉時のユーザとドアの間の位置関係を保ちながら,開扉角度に合わせてVR空間全体を一定の倍率で回転させることにより,ユーザの進行方向操作を実現しています.

RedirectedDoors is a novel space-efficient technique for redirection in VR focused on door-opening behavior (Redirection is a methodology to subtly manipulate the user's movement distance and/or direction for compressing the VR experience within a limited physical space). This technique manipulates the user’s walking direction by rotating the entire virtual environment at a certain angular ratio of the door being opened, while the virtual door’s position is kept unmanipulated so that a realistic door-opening user experience can be ensured.

project page

IEEEVR 2022 Conference paper Honorable Mention Award
paper / video
第26回 VR学会大会
paper
PseudoJumpOn

PseudoJumpOn

PseudoJumpOnは,平坦な場所でもVR空間内で擬似的に段差に跳び乗ったような感覚を与える手法です.この手法は,跳躍動作中の上昇量と下降量に異なる倍率をかけるゲイン操作手法と,上昇時間が下降時間よりも長くなるように操作するピークシフト手法を組み合わせることにより実現されています.ユーザスタディ(N=20)の結果,ユーザは物理的な段差がないことを知りながらも,段差に飛び乗る感覚のリアリティや自然さに関して概ねポジティブな評価であったことがわかりました.

PseudoJumpOn is a novel locomotion technique using a common VR setup that allows the user to experience virtual step-up jumping motion. This technique is achieved by combining two viewpoint-manipulation methods: gain manipulation, which differentiates the ascent and descent height, and peak shifting, which delays the peak timing. Results of a user study (N=20) showed that the users in most conditions felt positively in terms of reality and naturalness of actually jumping onto steps, even though knowing no physical steps existed.

project page

IEEEVR 2022 Conference paper
paper / video
第26回 VR学会大会
paper
Towards Balancing VR Immersion and Bystander Awareness

Towards Balancing VR Immersion and Bystander Awareness

ヘッドマウントディスプレイ(HMD)ユーザがVR体験への没入と周囲へのアウェアネスのバランスをうまくとる方法を探るため,近接者の位置と向きをHMDの視界に可視化する3つの手法(Avatar View, Radar, and Presence++)を設計し実装しました.3つの異なるタイプのVRコンテンツを用いたユーザスタディ(N=20)の結果,近接者のアバタをVR空間内に半透明表示する手法であるAvatar Viewがアウェアネスの向上に有効であったものの,VRコンテンツへの没入感をやや低下させることがわかりました.この結果を踏まえ,HMDユーザの没入感の低下を緩和するために今後どのような可視化技術を設計すべきか考察しました.

To explore how to balance VR immersion and bystander awareness for HMD users, we adapted and implemented three visualization techniques (Avatar View, Radar, and Presence++) that share bystanders' location and orientation with headset users. Our user study (N=20) with three different types of VR content (high, medium, low interactivity) reveals that a see-through avatar representation of bystanders was effective, but led to slightly reduced immersion in the VR content. Based on our findings, we discuss how future awareness visualization techniques can be designed to mitigate the reduction of immersion for the headset user.

Proc. ACM Hum.-Comput. Interact. (ISS 2021) Best Paper Award
paper
ModularHMD

ModularHMD

ModularHMDは,手動で再構成可能なモジュラー機構を用いた新たなモバイルヘッドマウントディスプレイ(HMD)です.この HMD では,市販の HMD のフェイスカバー部に 3 つの着脱可能なディスプレイモジュールを設置することで,没入感の高い VR 体験を可能にしつつも,必要に応じてモジュールの着脱により視界周辺部での実物体や近接者とのアドホックなインタラクションを可能にします.

ModularHMD is a new mobile head-mounted display concept, which allows a user to perform ad-hoc peripheral interaction with real-world devices or people during VR experiences. The device is comprised of a central HMD and three removable modules installed in the periphery of the HMD cowl and each module has four main states: occluding, extended VR view, video see-through (VST), and removed/reused. A user can quickly setup the HMD forms, functions, and real-world visions for ad-hoc peripheral interactions as needed.

インタラクション 2021 インタラクティブ発表賞(PC推薦)
paper
TiltChair

TiltChair

TiltChairは,デスクワークにおける長時間の座位を解消するため,オフィスチェア座面を前傾させることでユーザの姿勢を誘導するシステムです.空気圧制御を用い,前傾角度とその動作速度を調整することにより,ユーザが遂行中のタスクを邪魔せずに立位姿勢を促せることを示しました.

We propose TiltChair, an actuated office chair that physically manipulates the user’s posture by actively inclining the chair’s seat to address problems associated with prolonged sitting. The system controls the inclination angle and motion speed with the aim of achieving manipulative but unobtrusive posture guidance. Experimental results show the system's potential to change the users posture even during tasks, without loss of task performance.

project page

インタラクション 2021
paper
PinpointFly

PinpointFly

PinpointFlyは,モバイルARを用いることで,タッチ操作でドローンの位置制御が可能な操縦インターフェイスです.ユーザは,画面に表示されたドローンのバーチャルな影やスライダバーを用いて,ドローンの位置・方向・高さを制御することできます.実験により,この手法が従来のジョイスティック操作に比べて早く,正確に,少ない負荷でドローンの制御を実現することを示しました.

We propose PinpointFly, an egocentric interface that allows users to arbitrarily position and rotate a flying drone by position control interactions on a see-through mobile AR where the drone position and its direction are visually enhanced with a virtual cast-shadow. A user study demonstrated that PinpointFly makes the drone positioning and inspection operations faster, more accurate, simpler and fewer workload than a conventional joystick interface.

project page

SIGGRAPH Asia 2019 E-Tech
paper
BouncyScreen

BouncyScreen

BouncyScreenは,ユーザが平面ディスプレイに表示された物体と間接インタラクションする際,映像と連動して平面ディスプレイを物理的に奥行き方向へ運動させることで疑似触覚を提示することでコンテンツの表現を拡張する手法です.心理物理実験の結果,ディスプレイ自体の物理的な移動は,平面ディスプレイ内に表示された視覚的なコンテンツの移動と同程度に奥行方向への近くに影響を与えることがわかりました.

We propose BouncyScreen, an actuated 1D display that enriches indirect interaction with a virtual object by pseudo-haptic feedback mechanics enhanced through the screen's physical movements. The psychophysical study confirmed that the screen's synchronous physical motions offers identical pseudo-force feedback to the vision-based pseudo-haptic technique.

project page

IEEEVR 2021 Conference paper
paper / video
第24回 日本VR学会大会
paper
ZoomWalls

ZoomWalls

ルームスケールVRにおける壁やドア等の空間インフラに関する触覚を,複数の自走する壁型プロップを用いてユーザに提示する方法であるZoomWallを提案しています.本研究では,ユーザの動きから触れそうな壁を予測するアルゴリズム,および,その場所へ利用可能な壁面プロップを配置するための経路計画アルゴリズムを設計し,ユーザスタディによりこの有効性を検証しています.

We propose ZoomWalls, autonomous robotic encounter-type wall-shaped props that simulate the haptic infrastructure (i.e. walls, doors) in room-scale virtual reality. Based on a user's movement through the physical space, ZoomWall props are coordinated through a predict-and-dispatch architecture to provide just-in-time haptic feedback for objects the user is about to touch.

project page

インタラクション 2020
paper
StickyTouch

PlanT

本研究では,植物の成長度合いを制御することにより,日々蓄積されていく情報(例えば,タスクの進捗状況や貯金箱の金額など)を可視化する植物ディスプレイ「PlanT」を提案しています.実験では,カイワレ大根に与える水分や日光の量の変化により,主観的な成長度合いを制御できる可能性を示しています.

We propose PlanT, a plant display that visualizes information accumulating over time (e.g., task progress, piggy bank amounts, etc.) by controlling the growth rate of the plant. Our experiments show the possibility to control the growth rate (perceived by users) of white radish sprouts by changing the amount of water and sunlight provided to them.

Techniques to Visualize Occluded Graph Elements for 2.5D Map Editing

Visualization techniques for 2.5D Map Editing

複数階層にわたる2.5D地図情報のグラフデータを編集するための,グラフ要素のオクルージョン(遮蔽)を解決するユーザインタフェースを提案しています.提案手法Repel Significationは,オクルージョン箇所を振動するようなモーションで可視化します.2つ目の提案手法Repel Expansionは,カーソル付近のオクルージョンを解決するように,重なっていた要素を出現させ可視化します.

We propose an interface to visualize occluded graph elements that help the user edit map data with a 2.5D geographical structure (e.g., multi-floor indoor maps). The proposed technique named Repel Signification employs oscillating motion to signify the occluded elements. The other technique named Expansion Interaction visualizes occluded elements around cursor.

CHI 2020 LDW
paper / video
インタラクション 2020
paper
StickyTouch

StickyTouch

StickyTouchは,表面の一部の粘着性をコンピュータによって制御でき,画像情報(2D)に粘着性(1D)を追加し表示できるディスプレイです.温度によって粘着性が変化する特殊なポリマーシートをディスプレイスクリーン上に配置し,局所的な温度変化を制御することで,表面の粘着性を局所的に制御することを実現しています.

StickyTouch is a novel tactile display that represents adhesive information on a surface. Adhesion control can be achieved by a temperature sensitive adhesive sheet whose temperature is locally controlled by peltier devices arranged in a grid.

SIGGRAPH Asia 2019 E-Tech Best Demo Voted by Committee
paper / video
IEEE Haptics 2020
paper
VR学会論文誌 日本バーチャルリアリティ学会 第23回論文賞
paper
Pursuit Sensing

Pursuit Sensing

Pursuit Sensingは,カメラによるハンドトラッキング可能な領域を拡大するために,3軸ジンバルを用いてカメラアングルを手の動きに追従させるセンシング手法です.アクションカメラ用3軸ジンバルとLeap Motionセンサーを組み合わせたウェアラブルなセンサを胸部に固定し,VRでのハンドインタラクションを実現するアプリケーションを開発しました.

Pursuit Sensing is a technique to considerably extend the tracking volume of a camera sensor through self-actuated reorientation using a customized gimbal, thus enabling a Leap Motion to dynamically follow the user’s hand position in mobile HMD scenarios.

SUI 2019
paper / video
ShearSheet

ShearSheet

ShearSheetは,導電性素材を貼付した透明シートをタッチスクリーン上でスライドさせることで,通常のタッチ入力に影響を与えずに,ジョイスティックのような速度制御による機構を追加のセンサ無しで付加する新たなインタフェースです.

ShearSheet is a low-cost and power-free method that enables tangential (shear) force input on a touchscreen using a rubber-mounted slim transparent sheet. The sheet has tiny conductive material(s) attached to the underside so that displacement of the sheet is recognized as touch input(s).

ISS 2019 Best Demo Award
paper / video
インタラクション2019 インタラクティブ発表賞(PC推薦)
paper
情報処理学会論文誌
paper
Third-Person Piloting

Third-Person Piloting

本インタフェースは,空間的に連動する2台のドローンを利用して従来のドローン操縦インタフェースを拡張します.操縦対象のドローン(主ドローン)カメラによる一人称視点に加えて,主ドローンに空間連動する副ドローンを用いて広域な三人称視点を提供することで,パイロットのドローン周囲への理解(SituationalAwareness)を高め,ドローンの操縦や飛行経路計画をより簡単にします.

We propose Third-Person Piloting, a novel drone manipulation interface that increases situational awareness using an interactive third-person perspective from a second, spatially coupled drone. The pilot uses a controller with a manipulatable miniature drone. This allows the pilot to obtain various third-person perspectives by controlling a changing the orientation of the miniature drone while maintaining standard primary drone control using the conventional controller.

UIST 2019
paper / video
インタラクション2019
paper
情報処理学会論文誌
paper
Redirected Jumping

Redirected Jumping

本研究は,VR空間において,ユーザによる跳躍移動量(水平距離,高さ,回転量)を知覚されない程度のゲインにより拡大(または縮小)することで,限られた物理空間内でより自由度の高い跳躍体験を実現する枠組みであるRedirected Jumpingを提案しています.

We explore Redirected Jumping, a novel redirection technique which enables us to purposefully manipulate the mapping of the user’s physical jumping movements (e.g., distance and direction) to movement in the virtual space, allowing richer and more active physical VR experiences within a limited tracking area.

project page

IEEE VR 2019 Conference paper
paper / video
VR学会論文誌 日本バーチャルリアリティ学会 第22回論文賞
paper
D-FLIP

D-FLIP

デジタル写真を閲覧する機会が増えていますが,写真の数が多くなるにつれ,それらの関連付けを考慮することは難しくなります.本研究では,写真のメタデータを利用しさまざまなコンテンツを状況に応じて動的に,またインタラクティブに表示する新しい手法を提案しています.

D-FLIP dynamically and flexibly visualizes digital photos and their metadata. We design various dynamic photo visualizations with up to four-dimensional meta-information, allowing users to dynamically and effectively manage photos by selecting meta-information of user's current needs and interest.

project page

ISS 2018 demo
paper / video
AI-Supported Meeting Space

AI-Supported Meeting Space

オフィスの会議において,参加者の発想支援や合意形成を目的とし,空間自体が「もうひとりの参加者」となり会議を支援する空間型インタフェースを提案しています.参加者の発話内容に関連する情報を,壁面にリアルタイムに表出させる仕組みを実際の会議室に実装し,その有用性を検証しています.

AI-Supported Meeting Space itself behaves as “another participant” to make the meeting more productive. The system periodically provides the participants with some information related to their discussion topics on the surface of the table and walls.

JSAI 2017 (Domestic)
paper
elastic scroll and zoom

Elastic Scroll and Zoom

紙や布を指で縮めようとしたときに発生する「撓(たわ)み」のメタファを,スクロールおよびズーム操作に適用したインタラクション手法を提案しています.この手法は表示するコンテンツを伸縮性の柔らかい材質と捉えており,スクロール・ズームの際に従来は画面外へ押し出されていた領域が画面内に一時的に留まることにより,元の場所に戻る操作を支援します.

Elastic Scroll and Zoom is a viewport control method using metaphor of flexible materials. When a user scrolls or zooms the content to acquire a new area, originally displayed area remains in the viewport with distortion, which helps users decide next operation.

UIST 2012 demo
paper / video

インタラクション2011
paper
Paranga

Paranga

パラパラ漫画を電子的に楽しむことを可能にする本型デバイス「パランガ」では,本を曲げたり親指でページを押さえたりすることで連続的なページめくりを入力し,それに伴い紙のページがめくれる触覚・聴覚フィードバックを実現しています.また,ページめくりの速度によってコンテンツが変わるインスタレーションを実装し,新たな電子パラパラ漫画体験を実現しました.

Paranga is a book-shaped device that brings e-books into physical features like paper-like texture and page-flipping sensation. Paranga detects how quickly a user is turning pages and provides the tactile feedback of turning pages on his/her thumb by employing a rotatable roller mechanism with pieces of real paper.

ACE 2012
paper / video
SIGGRAPH Asia 2011 E-Tech
paper
VR学会論文誌
paper
Ambient Suite

Ambient Suite

多人数でのコミュニケーションを支援するための情報環境Ambient Suiteは,マイクやモーショントラッカ等を用いて会話の状況を推定するとともに,床や壁に配置されたディスプレイ群から様々な情報を表示させることで,会話の活性化を促します.101名の参加者による評価実験の結果,これらの情報提示が参加者の会話を活性化したことを示しました.

Ambient Suite enhances communication among multiple participants. In Ambient Suite itself works as both sensors to estimate the conversation states of participants from nonverbal cues and displays to present information to stimulate conversation.

ACE 2011
paper / video
電子情報通信学会論文誌
paper
FuSA2 Touch Display

FuSA2 Touch display

撫でる,かきむしるなど様々な動作を想起させる毛状物体の特性に着目し,毛状表面での映像提示とマルチタッチ認識が可能な大画面毛状ディスプレイFuSA2 Touch Displayを提案しています.このシステムでは,プラスチック製の光ファイバを用い,プロジェクタによる映像提示と赤外線を利用したタッチ認識を実装しています.

FuSA2 Touch Display is a furry and scalable multi-touch display which affords various interactions such as stroking or clawing. The system utilizing the feature of plastic fiber optics realizes a furry-type texture and a simple configuration that integrates the input and output.

ITS 2011
paper / video
SIGGRAPH 2010 E-Tech
paper
情報処理学会論文誌
paper
Anchored Navigation

Anchored Navigation

Googleマップ等の地図を操作するための新たな手法であるAnchored Navigationを提案しています.この手法では,ユーザの決めた注目点が画面内に必ず留まるように,ユーザのドラッグ操作に合わせて自動的にズームやチルトがなされることにより,シンプルな操作で注目点との距離・方向感覚を失わない操作を可能としています.

Anchored Navigation is a novel map navigation technique which allows users to manipulate a viewport without mode-switching among pan, zoom, and tilt while maintaining a sense of distance and direction by coupling users' panning displacements with zooming and panning so that the anchor point (determined by users) always remains in the viewport.

GI 2010
paper / video
電子情報通信学会論文誌
paper
Funbrella

アソブレラ / Funbrella

降雨体験を再現するために傘の手元に伝わる振動触覚に着目し,この振動を記録・再生可能な傘型デバイス「アソブレラ」を提案しています.このデバイスでは,ダイナミックマイクまたはスピーカの原理を利用したシンプルな機構により振動の記録・再生の両方を実現し,雨以外の様々なモノが降り注ぐ体験が可能なインスタレーションを実装しました.

Funbrella is an umbrella-like device that entertains people by reproducing various kinds of vibration perceived through an umbrella's handle while raining. We implemented a vibration-giving mechanism with an extremely simple structure based on a microphone / speaker so that the device can record the vibrations and plays them.

ACE 2009
paper
SIGGRAPH 2009 E-Tech
paper / video
VR学会論文誌
paper

Publications

  • Journal Papers (Domestic / International)
  1. Kazuyuki Fujita, Keito Uwaseki, Hongyu Bu, Kazuki Takashima, Yoshifumi Kitamura. ConfusionLens: Focus+Context Visualization Interface for Performance Analysis of Multiclass Image Classifiers, ACM Transactions on Interactive Intelligent Systems, Oct. 2024. [paper]
  2. Rikiya Fukushima, Kazuyuki Fujita, Kodai Ito, Yuichi Itoh. Visibility Control for Supporting Workers using Blind-based Partitioning Devices, Quality and User Experience, Vol. 9, Article no. 3, 12 pages, Aug. 2024. [paper]
  3. Fuma Kishi, Kodai Ito, Kazuyuki Fujita, Yuichi Itoh. Recognizing object localization using acoustic markers with active acoustic sensing, Quality and User Experience, Vol. 9, Article no. 2, 12 pages, Mar. 2024. [paper]
  4. Yukai Hoshikawa, Kazuyuki Fujita, Kazuki Takashima, Morten Fjeld, Yoshifumi Kitamura. RedirectedDoors+: Door-Opening Redirection with Dynamic Haptics in Room-Scale VR, IEEE Transactions on Visualization and Computer Graphics, Vol. 30, Issue: 5, pp. 2276-2286, Mar. 2024. [paper]
  5. Ryota Gomi, Kazuki Takashima, Yuki Onishi, Kazuyuki Fujita, Yoshifumi Kitamura. UbiSurface: A Robotic Touch Surface for Supporting Mid-air Planar Interactions in Room-Scale VR, Proc. of the ACM on Human-Computer Interaction, Vol. 7, Issue ISS, Article no. 443, pp. 376-397, Nov. 2023. [paper]
  6. Kento Nishimura, Kodai Ito, Ken Fujiwara, Kazuyuki Fujita, Yuichi Itoh. Detection of Nodding of Interlocutors using a Chair-shaped Device and Investigating Relationship between a Divergent Thinking Task and Amount of Nodding, Quality and User Experience, Vol. 8, Article no. 10, 12 pages, Oct. 2023. [paper]
  7. Kumpei Ogawa, Kazuyuki Fujita, Shuichi Sakamoto, Kazuki Takashima, Yoshifumi Kitamura. Exploring Visual-Auditory Redirected Walking using Auditory Cues in Reality, IEEE Transactions on Visualization and Computer Graphics, Vol. 30, Issue: 9, pp. 5782-5794, Aug. 2023. [paper]
  8. Kazuyuki Fujita, Kazuki Takashima, Yuichi Itoh, Yoshifumi Kitamura. Human-Workspace Interaction: prior research efforts and future challenges for supporting knowledge workers, Quality and User Experience, Vol. 8, Article no. 7, Aug. 2023. [paper]
  9. 上堀まい,伊藤弘大,藤田和之,伊藤雄一.口腔内への温度提示と食品の温度が食体験と味覚に与える影響.日本感性工学会論文誌,TJSKE-D-22-00070, 2023年3月. [paper]
  10. Takahiro Nagai, Kazuyuki Fujita, Kazuki Takashima, Yoshifumi Kitamura. HandyGaze: A Gaze Tracking Technique for Room-Scale Environments using a Single Smartphone, Proc. of the ACM on Human-Computer Interaction (ISS '22), Vol. 6, Issue ISS, Article No. 562, pp 143–160, Nov. 2022. [paper]
  11. Taichi Tsuchida, Kazuyuki Fujita, Kaori Ikematsu, Sayan Sarcar, Kazuki Takashima, Yoshifumi Kitamura. TetraForce: A Magnetic-Based Interface Enabling Pressure Force and Shear Force Input Applied to Front and Back of a Smartphone, Proc. of the ACM on Human-Computer Interaction (ISS '22), Vol. 6, Issue ISS, Article No. 564, pp 185–206, Nov. 2022. [paper]
  12. Yoshiki Kudo, Anthony Tang, Kazuyuki Fujita, Isamu Endo, Kazuki Takashima, Yoshifumi Kitamura. Towards Balancing VR Immersion and Bystander Awareness, Proc. of the ACM on Human-Computer Interaction (ISS '21), Vol. 5, Issue ISS, Article No. 484, pp 1–22, Nov. 2021 [paper] Best Paper Award.
  13. 鈴永紗也,藤田和之,白井僚,伊藤雄一.CoiLED Display: 対象に巻きつけ可能なストライプ状フレキシブルディスプレイ.日本バーチャルリアリティ学会論文誌,Vol. 26, No. 4, pp. 230-240, 2021年12月. [paper]
  14. 上田将理,藤田和之,伊藤雄一.PlanT:植物の成長制御を用いた積算情報可視化ディスプレイ.ヒューマンインタフェース学会論文誌,Vol. 23, No. 4, pp. 407-418, 2021年11月. [paper]
  15. 川崎祐太,伊藤雄一,藤田和之,尾上孝雄.アクティブ音響センシングにおける環境温度変化にロバストな物体情報識別手法の検討.情報処理学会論文誌,Vol. 62, No. 10, pp. 1658-1668, 2021年10月. [paper]
  16. Chiahuei Tseng, Miao Cheng, Hassan Matout, Kazuyuki Fujita, Yoshifumi Kitamura, Satoshi Shioiri, I-Lien Ho, Asaf Bachrach. MA and Togetherness (Ittaikan) in the Narratives of Dancers and Spectators: Sharing an Uncertain Space. Jpn Psychol Res. Mar. 2021. [paper]
  17. 藤田和之,黄 梦婷,高嶋和毅,土田太一,真鍋宏幸,北村喜文.ShearSheet: 静電容量タッチパネルに装着可能な透明シートを用いた剪断入力インタフェース.情報処理学会論文誌,Vol. 62, No.2, pp. 641-653, 2021年2月. [paper]
  18. 伊藤雄一,石原好貴,白井僚,藤田和之,高嶋和毅,尾上孝雄.StickyTouch: 局所的粘着性を制御可能なタッチディスプレイ.日本バーチャルリアリティ学会論文誌,Vol. 25, No. 4, pp. 384-393, 2020年12月. [paper] 第23回 論文賞
  19. 藤田和之,高嶋和毅,伊藤雄一,北村喜文.ペン入力環境におけるパン操作にズーム・チルトを連動させる地図ナビゲーション手法に関する調査.電子情報通信学会論文誌,Vol. J103-D, No. 11, pp. 817-828, 2020年11月. [paper]
  20. 天間遼太郎,高嶋和毅,藤田和之,末田航,北村喜文.空間連動する2つのカメラ視点を用いたドローン操縦インタフェースの拡張.情報処理学会論文誌,Vol. 61, No. 8, pp. 1319-1332, 2020年8月. [paper]
  21. 林大悟,藤田和之,高嶋和毅,Robert W. Lindeman,北村喜文.Redirected Jumping: VRにおける跳躍動作時の移動量操作手法.日本バーチャルリアリティ学会論文誌,Vol. 24, Nol. 4, pp. 341-350, 2019年12月.[paper] 第22回 論文賞
  22. 伊藤雄一,藤田和之,城所宏行.パランガ:触覚フィードバックを持つ電子パラパラ漫画,日本バーチャルリアリティ学会論文誌,Vol. 19, No. 4, pp. 477-486, 2014年12月.[paper]
  23. 中島康祐,伊藤雄一,林勇介,池田和章,藤田和之,尾上孝雄.Emoballoon:ソーシャルタッチインタラクションのための柔らかな風船型インタフェース,日本バーチャルリアリティ学会論文誌 Vol. 18, No. 3, pp. 255-265, 2013年9月.[paper]
  24. Kazuyuki Fujita, Yuichi Itoh, and Hiroyuki Kidokoro. “Paranga: An electronic flipbook that reproduces riffling interaction.” International Journal of Creative Interfaces and Computer Graphics (IJCICG), Vol. 4, No. 1, pp. 21-34, Jun.2013. [paper]
  25. Yusuke Hayashi, Yuichi Itoh, Kazuki Takashima, Kazuyuki Fujita, Kosuke Nakajima, and Takao Onoye. Cup-le: cup-shaped tool for subtly collecting Information during conversational experiment, In International Journal of Advanced Computer Science, Vol. 3, No. 1, pp. 44-50, Jan. 2013. [paper]
  26. 藤田和之,高嶋和毅,伊藤雄一,大崎博之,小野直亮,香川景一郎,津川翔,中島康祐,林勇介,岸野文郎.Ambient Suiteを用いたパーティ場面における部屋型会話支援システムの実装と評価,電子情報通信学会論文誌, Vol. J96-D, No. 1, 2013年1月.[paper]
  27. Ryusuke Endo, Yuichi Itoh, Kosuke Nakajima, Kazuyuki Fujita, and Fumio Kishino. Digital Signage Supporting Collaborative Route Planning in Real Commercial Establishment. ICIC Express Letters, Vol. 6, No. 12, pp. 1-6, Dec. 2012.
  28. 中島康祐,伊藤雄一,築谷喬之,藤田和之,高嶋和毅,岸野文郎.FuSA2 Touch Display: 大画面毛状マルチタッチディスプレイ,情報処理学会論文誌, Vol. 53, No. 3, pp. 1069-1081, 2012年3月.[paper]
  29. 藤田和之,高嶋和毅,築谷喬之,朝日元生,伊藤雄一,北村喜文,岸野文郎.地図ナビゲーションにおけるパン操作とズーム/チルト連動を用いたビューポート制御手法の提案,電子情報通信学会論文誌, Vol. J93-D, No. 11, pp. 2454-2465, 2010年11月.[paper]
  30. 藤田和之,伊藤雄一,吉田愛,尾崎麻耶,菊川哲也,深澤遼,高嶋和毅,北村喜文,岸野文郎.アソブレラ:振動を記録・再生可能な傘型アンビエントインタフェース,日本バーチャルリアリティ学会論文誌, Vol. 15, No. 3, pp. 397-405, 2010年9月.[paper]
  • Reviewed Conference Papers(Full / Short Paper)
  1. Tetsushi Ikeda, Kazuyuki Fujita, Kumpei Ogawa, Kazuki Takashima, Yoshifumi Kitamura. LoopBot: Representing Continuous Haptics of Grounded Objects in Room-scale VR, Proc. of the 37th Annual ACM Symposium on User Interface Software and Technology (UIST '24), Article No. 135, pp. 1-10, Oct. 2024. [paper]
  2. Taichi Murakami, Kazuyuki Fujita, Kotaro Hara, Kazuki Takashima, Yoshifumi Kitamura. SwapVid: Integrating Video Viewing and Document Exploration with Direct Manipulation, Proc. of the 2024 CHI Conference on Human Factors in Computing Systems (CHI '24), Article No. 1035, pp. 1-13, May. 2024. [paper]
  3. Ryota Gomi, Ryo Suzuki, Kazuki Takashima, Kazuyuki Fujita, Yoshifumi Kitamura. InflatableBots: Inflatable Shape-Changing Mobile Robots for Large-Scale Encountered-Type Haptics in VR, Proc. of the 2024 CHI Conference on Human Factors in Computing Systems (CHI '24), Article No. 423, pp. 1-14, May. 2024. [paper]
  4. Pete Andrews, Oda Elise Nordberg, Morten Fjeld, Dr Njål Borch, Frode Guribye, Kazuyuki Fujita, Stephanie Zubicueta Portales. AiCommentator: A Multimodal Conversational Agent for Embedded Visualization in Football Viewing, Proc. ACM Conference on Intelligent User Interfaces (IUI '24), pp. 14-34, Mar. 2024. [paper]
  5. Maakito Inoue, Kazuki Takashima, Kazuyuki Fujita, Yoshifumi Kitamura. BirdViewAR: Surroundings-aware Remote Drone Piloting Using an Augmented Third-person Perspective, Proc. of the 2023 CHI Conference on Human Factors in Computing Systems (CHI '23), Article No. 31, pp. 1-19, May. 2023. [paper]
  6. Yuki Onishi, Kazuki Takashima, Shoi Higashiyama, Kazuyuki Fujita, Yoshifumi Kitamura. WaddleWalls: Room-scale Interactive Partitioning System using a Swarm of Robotic Partitions, Proc. of the 35th Annual ACM Symposium on User Interface Software and Technology (UIST '22), Article No.: 29, pp. 1–15, Oct. 2022. [paper]
  7. Kumpei Ogawa, Kazuyuki Fujita, Kazuki Takashima, Yoshifumi Kitamura. PseudoJumpOn: Jumping onto Steps in Virtual Reality, Proc. of 2022 IEEE Conference on Virtual Reality and 3D User Interfaces (IEEEVR '22), pp. 635-643, Mar. 2022. [paper]
  8. Yukai Hoshikawa, Kazuyuki Fujita, Kazuki Takashima, Morten Fjeld, Yoshifumi Kitamura. RedirectedDoors: Redirection While Opening Doors in Virtual Reality, Proc. of 2022 IEEE Conference on Virtual Reality and 3D User Interfaces (IEEEVR '22), pp. 464-473, Mar. 2022. [paper] Honorable Mention Award.
  9. Isamu Endo, Kazuki Takashima, Maakito Inoue, Kazuyuki Fujita, Kiyoshi Kiyokawa, and Yoshifumi Kitamura. ModularHMD: A Reconfigurable Mobile Head-Mounted Display Enabling Ad-hoc Peripheral Interactions with the Real World, Proc. of the 34th Annual ACM Symposium on User Interface Software and Technology (UIST '21), pp. 100-117, Oct. 2021. [paper]
  10. Kazuyuki Fujita, Aoi Suzuki, Kazuki Takashima, Kaori Ikematsu, Yoshifumi Kitamura. TiltChair: Manipulative Posture Guidance by Actively Inclining the Seat of an Office Chair, Proc. of the 2021 CHI Conference on Human Factors in Computing Systems (CHI '21), Article No. 228, pp. 1-14, May. 2021. [paper]
  11. Linfeng Chen, Kazuki Takashima, Kazuyuki Fujita, Yoshifumi Kitamura. PinpointFly: An Egocentric Position-control Drone Interface using Mobile AR, Proc. of the 2021 CHI Conference on Human Factors in Computing Systems (CHI '21), Article No. 150, pp. 1-13, May. 2021. [paper]
  12. Yuki Onishi, Kazuki Takashima, Kazuyuki Fujita, Yoshifumi Kitamura. BouncyScreen: Physical Enhancement of Pseudo-Force Feedback, Proc. of 2021 IEEE Conference on Virtual Reality and 3D User Interfaces (IEEEVR '21), pp. 363-372, Mar. 2021. [paper]
  13. Yan Yixian, Kazuki Takashima, Anthony Tang, Takayuki Tanno, Kazuyuki Fujita, Yoshifumi Kitamura. ZoomWalls: Dynamic Walls that Simulate Haptic Infrastructure for Room-scale VR World, Proc. of the 33rd Annual ACM Symposium on User Interface Software and Technology (UIST '20), pp. 223-235, Oct. 2020. [paper]
  14. Saya Suzunaga, Yuichi Itoh, Yuki Inoue, Kazuyuki Fujita, Takao Onoye. TuVe : A Shape-changable Display using Fluids in a Tube, Proc. of the 2020 International Conference on Advanced Visual Interfaces (AVI '20), pp. 1-9, Sep. 2020. [paper]
  15. Yoshitaka Ishihara, Yuichi Itoh, Ryo Shirai, Kazuyuki Fujita, Kazuki Takashima, Takao Onoye. StickyTouch: A Tactile Display with Changeable Adhesive Distribution, 2020 IEEE Haptics Symposium (HAPTICS), pp. 842-847, Mar. 2020. [paper]
  16. Mengting Huang, Kazuyuki Fujita, Kazuki Takashima, Taichi Tsuchida, Hiroyuki Manabe, Yoshifumi Kitamura. ShearSheet: Low-Cost Shear Force Input with Elastic Feedback for Augmenting Touch Interaction, Proc. of the 2019 ACM Interactive Surfaces and Spaces (ISS '19), pp. 77-87, Nov. 2019. [paper] Best Demo Award.
  17. Ryotaro Temma, Kazuki Takashima, Kazuyuki Fujita, Koh Sueda, Yoshifumi Kitamura. Third-Person Piloting: Increasing Situational Awareness using a Spatially Coupled Second Drone, Proc. of the 32nd Annual ACM Symposium on User Interface Software and Technology (UIST '19), pp. 507-519, Oct. 2019. [paper]
  18. Pascal Chiu, Kazuki Takashima, Kazuyuki Fujita, Yoshifumi Kitamura. Pursuit Sensing: Extending Hand Tracking Space in Mobile VR Applications, Proc. of Symposium on Spatial User Interaction (SUI '19), 5 pages, Oct.2019. [paper]
  19. Daigo Hayashi, Kazuyuki Fujita, Kazuki Takashima, Robert W. Lindeman, Yoshifumi Kitamura. Redirected Jumping: Imperceptibly Manipulating Jump Motions in Virtual Reality, Proc. of 2019 IEEE Conference on Virtual Reality and 3D User Interfaces (IEEEVR '19) pp. 386-394, Mar. 2019. [paper]
  20. Kosuke Nakajima, Yuichi Itoh, Yusuke Hayashi, Kazuaki Ikeda, Kazuyuki Fujita, and Takao Onoye. Emoballoon: a Balloon-shaped Interface Recognizing Social Touch Interactions. Proc. of 10th International Conference on Advances in Computer Entertainment Technology (ACE '13), pp. 182-197, Nov. 2013. [paper]
  21. Kazuyuki Fujita, Hiroyuki Kidokoro, Yuichi Itoh. Paranga: An Interactive Flipbook, Proc. of the International Conference on Advances in Computer Entertainment Technology (ACE '12), pp. 17-30, 2012. [paper]
  22. Ryusuke Endo, Yuichi Itoh, Kosuke Nakajima, Kazuyuki Fujita, Fumio Kishino. Planning-Capable Digital Signage System Using Multi-touch Display, Proc. of The 10th Asia Pacific Conference on Computer Human Interaction (APCHI '12), Vol. 2, pp. 545-554, Aug. 2012.
  23. Kazuyuki Fujita, Yuichi Itoh, Hiroyuki Ohsaki, Naoaki Ono, Keiichiro Kagawa, Kazuki Takashima, Sho Tsugawa, Kosuke Nakajima, Yusuke Hayashi, Fumio Kishino. Ambient Suite: Enhancing Communication among Multiple Participants, Proc. of the International Conference on Advances in Computer Entertainment Technology (ACE '11), pp. 25:1-25:8, Nov. 2011. [paper]
  24. Kosuke Nakajima, Yuichi Itoh, Takayuki Tsukitani, Kazuyuki Fujita, Kazuki Takashima, Yoshifumi Kitamura, Fumio Kishino. FuSA2 Touch Display: Furry and Scalable Multi-touch Display, Proc. of ACM International Conference on Interactive Tabletops and Surfaces 2011 (ITS '11), pp. 35-44, Nov. 2011. [paper]
  25. Kazuyuki Fujita, Kazuki Takashima, Takayuki Tsukitani, Yuichi Itoh, Yoshifumi Kitamura, Fumio Kishino. Anchored Navigation: Coupling Panning Operation with Zooming and Tilting Based on the Anchor Point on a Map, Proc. of the Graphics Interface 2010 (GI '10), pp. 233-240, May. 2010. [paper]
  26. Kazuyuki Fujita, Yuichi Itoh, Ai Yoshida, Maya Ozaki, Kikukawa Tetsuya, Ryo Fukazawa, Kazuki Takashima, Yoshifumi Kitamura, Fumio Kishino. Funbrella: Recording and Replaying Vibrations through an Umbrella Axis, Proc. of the International Conference on Advances in Computer Entertainment Technology (ACE '09), pp. 66-71, Oct. 2009. [paper]
  • Reviewed Conference Papers(Poster / Demo / Workshop)
  1. Kumpei Ogawa, Kazuyuki Fujita, Kazuki Takashima, Yoshifumi Kitamura. Demonstration of PseudoJumpOn: Repetitive Step-up Jump in Virtual Reality, SIGGRAPH Asia 2022 XR, Article No. 5, 2 pages, Dec. 2022. [paper]
  2. Yukai Hoshikawa, Kazuyuki Fujita, Kazuki Takashima, Morten Fjeld, Yoshifumi Kitamura. Demonstration of RedirectedDoors: Manipulating User’s Orientation while Opening Doors in Virtual Reality, SIGGRAPH Asia 2022 XR, Article No. 6, 2 pages, Dec. 2022. [paper]
  3. Ryota Gomi, Kazuki Takashima, Kazuyuki Fujita, Yoshifumi Kitamura. A Triangular Actuating Device Stand that Dynamically Adjusts Mobile Screen’s Position, Adjunct Proc. of the 35th Annual ACM Symposium on User Interface Software and Technology (UIST '22), Article No.: 63, pp. 1-3, Oct. 2022. [paper]
  4. Keito Uwaseki, Kazuyuki Fujita, Kazuki Takashima, Yoshifumi Kitamura. ConfusionLens: Dynamic and Interactive Visualization for Performance Analysis of Multiclass Image Classifiers, Adjunct Proc. of the 35th Annual ACM Symposium on User Interface Software and Technology (UIST '22), Article No.: 60, pp. 1-3, Oct. 2022. [paper]
  5. Tatsuya Maeda, Keita Kuwayama, Kodai Ito, Kazuyuki Fujita, Yuichi Itoh. FullPull: A Stretchable UI to Input Pulling Strength on Touch Surfaces, Adjunct Proc. of the 35th Annual ACM Symposium on User Interface Software and Technology (UIST '22), Article No.: 52, pp. 1-3, Oct. 2022. [paper]
  6. Taiyo Natomi, Yasuji Kitabatake, Kazuyuki Fujita, Takao Onoye, and Yuichi Itoh, An Infant-Like Device that Reproduces Hugging Sensation with Multi-Channel Haptic Feedback, Proc. of the 27th ACM Symposium on Virtual Reality Software and Technology (VRST ’21), Article No. 55, 3 pages, Nov. 2021. [paper]
  7. Tatsuki Takano, Kazuki Takashima, Kazuyuki Fujita, Hong Guang, Kaori Ikematsu, and Yoshifumi Kitamura. A Compact and Low-cost VR Tooth Drill Training System using Mobile HMD and Stylus Smartphone, Proc. of the 27th ACM Symposium on Virtual Reality Software and Technology (VRST ’21), Article No. 46, 3 pages, Dec. 2021. [paper]
  8. Isamu Endo, Kazuki Takashima, Maakito Inoue, Kazuyuki Fujita, Kiyoshi Kiyokawa, and Yoshifumi Kitamura. A Reconfigurable Mobile Head-Mounted Display Supporting Real World Interactions, Extended Abstracts of the 2021 CHI Conference on Human Factors in Computing Systems (CHI EA '21), Article No. 418, pp. 1-7, May. 2021. [paper]
  9. Yuki Onishi, Kazuki Takashima, Kazuyuki Fujita, and Yoshifumi Kitamura. Self-actuated Stretchable Partitions for Dynamically Creating Secure Workplaces, Extended Abstracts of the 2021 CHI Conference on Human Factors in Computing Systems (CHI EA '21), Article No. 294, pp. 1-6, May. 2021. [paper]
  10. Josh (Adi) Tedjasaputra, Briane Paul V. Samson, Masitah Ghazali, Eunice Sari, Sayan Sarcar, Dilrukshi Gamage, Kazuyuki Fujita, Pranjal Jain, Amit Jena, Toni-Jan Keith Palma Monserrat, Nabila Sindi, Kaixing Zhao, Jordan Aiko Deja, Manvi Fotedar, Manjiri Joshi, Yang Li, Zhicong Lu, Akihiro Matsufuji, Shio Miyafuji, Korok Sengupta, Diksha Singh, Simran Singh, and Umar Taufiqulhakim. Asian CHI Symposium: HCI Research from Asia and on Asian Contexts and Cultures. Extended Abstracts of the 2021 CHI Conference on Human Factors in Computing Systems (CHI EA '21). Article No. 80, pp. 1–5, May. 2021. [paper]
  11. Saya Suzunaga, Yuichi Itoh, Kazuyuki Fujita, Ryo Shirai, Takao Onoye. CoiLED Display: Make Everything Displayable, SIGGRAPH Asia 2020 Emerging Technologies. pp. 1-2, Dec. 2020. [paper]
  12. Kazuyuki Fujita, Daigo Hayashi, Kotaro Hara, Kazuki Takashima, Yoshifumi Kitamura. Techniques to Visualize Occluded Graph Elements for 2.5D Map Editing. CHI 2020 Extended Abstract, pp. 1–9, Apr. 2020. [paper]
  13. Kazuyuki Fujita. Adaptive Spatial User Interfaces That Activate Us. The 26th International Display Workshops (IDW '19), AIS1/INP2-1 (Invited), pp. 13-15, Nov. 2019.
  14. Tomas Havlik, Daigo Hayashi, Kazuyuki Fujita, Kazuki Takashima, Robert W. Lindeman, Yoshifumi Kitamura. JumpinVR: Enhancing Jump Experience in a Limited Physical Space. SIGGRAPH Asia 2019 XR, Nov. 2019.
  15. Pascal Chiu, Kazuki Takashima, Kazuyuki Fujita, Yoshifumi Kitamura. FreeMo: Extending Hand Tracking Experiences Through Capture Volume and User Freedom. SIGGRAPH Asia 2019 XR, Nov. 2019.
  16. Linfeng Chen, Akiyuki Ebi, Kazuki Takashima, Kazuyuki Fujita, Yoshifumi Kitamura. PinpointFly: An Egocentric Position-pointing Drone Interfaceusing Mobile AR. SIGGRAPH Asia 2019 Emerging Technologies, Nov. 2019.
  17. Yoshitaka Ishihara, Ryo Shirai, Yuichi Itoh, Kazuyuki Fujita, Takao Onoye. StickyTouch: An Adhesion Changeable Surface. SIGGRAPH Asia 2019 Emerging Technologies, Nov. 2019. Best Demo Voted by Committee.
  18. Xiyue Wang, Kaori Ikematsu, Kazuyuki Fujita, Kazuki Takashima, Yoshifumi Kitamura. An Investigation of Electrode Design for Physical Touch Extensions on a Capacitive Touch Surface. Adjunct Proc. of the 32nd Annual ACM Symposium on User Interface Software and Technology (UIST '19), pp. 66-68, Oct. 2019.
  19. Kazuyuki Fujita, Eunice Ratna Sari, Juho Kim, Adi B. Tedjasaputra, Ellen Yi-Luen Do, Zhengjie Liu, Uichin Lee, Toni-Jan Keith Palma Monserrat, Akihiro Matsufuji, Shio Miyafuji, Ryosuke Takada, Chat Wacharamanotham, Masitah Ghazali, Xiyue Wang, Thippaya Chintakovid, Kyoungwon Seo, Jinwoo Kim, Yoshifumi Kitamura. Asian CHI Symposium: Emerging HCI Research Collection. CHI Extended Abstracts 2019, No. Sym06, May. 2019.
  20. Yoshitaka Ishihara, Shori Ueda, Yuichi Itoh, Kazuyuki Fujita. PlanT: A Plant-based Ambient Display Visualizing Gradually Accumulated Information. Asian CHI Symposium: Emerging HCI Research Collection, No. 16, May. 2019. Best Demo/Poster Award.
  21. Shotaro Ichikawa, Yuki Onishi, Daigo Hayashi, Akiyuki Ebi, Isamu Endo, Aoi Suzuki, Anri Niwano, Kazuyuki Fujita, Kazuki Takashima, Yoshifumi Kitamura. Be Bait!: Hammock-based Interaction for Enjoyable Underwater Swimming in VR. Asian CHI Symposium: Emerging HCI Research Collection, No. 29, May. 2019.
  22. Yoshifumi Kitamura, Kazuki Takashima, Kazuyuki Fujita. Designing Dynamic Aware Interiors. Proc. of the 24th ACM Symposium on Virtual Reality Software and Technology (VRST '18), pp. 77:1-77:2, Nov. 2018.
  23. Xin Huang, Kazuki Takashima, Kazuyuki Fujita, Yoshifumi Kitamura. Dynamic, Flexible and Multi-dimensional Visualization of Digital Photos and their Metadata. Proc. of the 2018 ACM International Conference on Interactive Surfaces and Spaces (ISS '18), pp.405-408, Nov. 2018.
  24. Yohei Kojima, Kazuma Aoyama, Yuichi Itoh, Kazuyuki Fujita, Taku Fujimoto, and Kosuke Nakajima. Polka dot: the garden of water spirits. ACM SIGGRAPH 2013 Posters, Article No. 47, Jul. 2013.
  25. Kosuke Nakajima, Yuichi Itoh, Yusuke Hayashi, Kazuaki Ikeda, Kazuyuki Fujita, Takao Onoye. Emoballoon, Proc. of The 10th Asia Pacific Conference on Computer Human Interaction (APCHI '12), Vol. 2, pp. 681-682, Aug. 2012. Best Poster / Best Demo Award.
  26. Sho Tsugawa, Yukiko Mogi, Yusuke Kikuchi, Fumio Kishino, Kazuyuki Fujita, Yuichi Itoh, Hiroyuki Ohsaki. On estimating depressive tendencies of Twitter users utilizing their tweet data. Proc. of The 2nd International Workshop on Ambient Information Technologies (AMBIT '13), pp.29-32, Mar. 2013.
  27. Kosuke Nakajima, Yuichi Itoh, Yusuke Hayashi, Kazuaki Ikeda, Kazuyuki Fujita, and Takao Onoye. Emoballoon: a Balloon-shaped Interface Recognizing Social Touch Interactions. Proc. of The 2nd International Workshop on Ambient Information Technologies (AMBIT '13), pp.13-16, Mar. 2013.
  28. Yuichi Fujii, Fumio Kishino, Kazuyuki Fujita, Yuichi Itoh. U-brella: A portable umbrella-shaped device for vibrationizing information. Proc. of The 2nd International Workshop on Ambient Information Technologies (AMBIT '13), pp.9-12, Mar. 2013.
  29. Kazuyuki Fujita, Yuichi Itoh, Kazuki Takashima, Kosuke Nakajima, Yusuke Hayashi, and Fumio Kishino. Ambient Party Room: A Room-shaped System Enhancing Communication for Parties or Gatherings. Proc. of The 2nd International Workshop on Ambient Information Technologies (AMBIT '13), pp.1-4, Mar. 2013.
  30. Kazuki Takashima, Kazuyuki Fujita, Yuichi Itoh, Yoshifumi Kitamura. Elastic Scroll for Multi-focus Interactions, Adjunct Proc. of the 25th Annual ACM Symposium on User Interface Software and Technology (UIST '12), pp. 19-20, Oct. 2012.
  31. Kazuyuki Fujita, Yuichi Itoh, Hiroyuki Ohsaki, Naoaki Ono, Keiichiro Kagawa, Kazuki Takashima, Sho Tsugawa, Kosuke Nakajima, Yusuke Hayashi, Fumio Kishino. Ambient Suite: Room-shaped Information Environment for Interpersonal Communication, Proc. of The 1st International Workshop on Ambient Information Technologies (AMBIT '12), pp. 18-21, Mar. 2012.
  32. Kosuke Nakajima, Yuichi Itoh, Takayuki Tsukitani, Kazuyuki Fujita, Kazuki Takashima, Yoshifumi Kitamura, Fumio Kishino. FuSA2 Touch Display: Furry and Scalable Multi-touch Display, Proc. of The 1st International Workshop on Ambient Information Technologies (AMBIT '12), pp. 35-36, Mar. 2012.
  33. Yusuke Hayashi, Yuichi Itoh, Kazuki Takashima, Kazuyuki Fujita, Kosuke Nakajima, Ikuo Daibo, Takao Onoye. Cup-le: A Cup-Shaped Device for Conversational Experiment, Proc. of The 1st International Workshop on Ambient Information Technologies (AMBIT '12), pp. 36-37, Mar. 2012.
  34. Hiroyuki Kidokoro, Kazuyuki Fujita, Masanori Owaki, Khoa Doba, Christopher Chung, Yuichi Itoh. Paranga: A Book-shaped Device with Tactile Feedback, The 4th ACM SIGGRAPH Conference and Exhibition on Computer Graphics and Interactive Techniques in Asia (SIGGRAPH Asia 2011) Emerging Technologies, Dec. 2011.
  35. Ai Yoshida, Yuichi Itoh, Kazuyuki Fujita, Maya Ozaki, Kikukawa Tetsuya, Ryo Fukazawa, Yoshifumi Kitamura, Fumio Kishino. Funbrella: Making Rain Fun, ACM SIGGRAPH 2009 Emerging Technologies, No. 10, Aug. 2009.
  • Reviewed Domestic Conference Papers
  1. 前田竜矢,伊藤弘大,桑山佳汰,藤田和之,伊藤雄一.サーフェスにおける引っ張り入力を実現するインタフェースの検討.インタラクション2023論文集,pp. 88-96, 2023年3月.
  2. 土田太一,藤田和之,池松香,Sayan Sarcar,高嶋和毅,北村喜文.TetraForce: スマートフォンの表裏両面に対する垂直・剪断方向の力を入力可能な磁気式インタフェース.第30回インタラクティブシステムとソフトウェアに関するワークショップ (WISS '22) 論文集,2022年12月.
  3. 鄢一先,高嶋和毅,アンソニー タン,藤田和之,北村喜文.複数の自走壁型プロップを用いたルームスケールVRの空間インフラの遭遇型触覚提示.インタラクション2020論文集,pp. 123-132, 2020年3月.
  4. 上田将理,伊藤雄一,藤田和之,尾上孝雄.PlanT:植物を用いた積算情報可視化ディスプレイ.インタラクション2020論文集,pp. 21-30, 2020年3月.
  5. 天間遼太郎,高嶋和毅,末田航,藤田和之,北村喜文.空間連動する2つのカメラ視点を用いたドローン操縦インタフェースの拡張.インタラクション2019論文集,pp. 102-111, 2019年3月.
  6. 工藤義礎,アンソニー タン,藤田和之,遠藤勇,高嶋和毅,ソール グリーンバーグ,北村喜文.近接学に基づくHMD利用者・非利用者の間の段階的なアウェアネスの向上.インタラクション2019論文集,pp. 48-57, 2019年3月.
  7. 中島康祐,伊藤雄一,林勇介,池田和章,藤田和之,尾上孝雄. Emoballoon: ソーシャルタッチインタラクションのための風船型インタフェース. インタラクション2013論文集, pp. 95-102, 2013年3月.
  8. 大脇正憲,藤田和之,高嶋和毅,築谷喬之,伊藤雄一,北村喜文,岸野文郎.撓みのメタファを用いたビューポート制御インタフェース,インタラクション2011論文集, pp. 115-122, 2011年3月.
  9. 藤田和之,高嶋和毅,築谷喬之,朝日元生,北村喜文,岸野文郎.複数のカメラ操作を連動させる地図ナビゲーション手法の提案,インタラクション2009 論文集, pp. 97-104, 2009年3月.
  • Non-reviewed Domestic Conference Papers
  1. 上出千隼,高嶋和毅,藤田和之,北村喜文.VR空間の地面の高低を提示可能な伸縮杖型デバイス.インタラクション2024論文集,pp. 1137-1139, 2024年3月.
  2. 村上大知,藤田和之,原航太郎,高嶋和毅,北村喜文. SwapVid: 資料動画の視聴支援のための 動画・資料ビューアの統合型インタフェース.インタラクション2024論文集,pp. 373-376, 2024年3月.
  3. 小川郡平,藤田和之,高嶋和毅,北村喜文.ハンドリダイレクションを用いた広範囲のキャンバスへのVRドローイング体験.第31回インタラクティブシステムとソフトウェアに関するワークショップ (WISS '23) 論文集,2023年12月.対話発表賞(プログラム委員).
  4. 橘優希,藤田和之,高嶋和毅,北村喜文.スマートフォンのみによる視線トラッキング技術を用いた展示案内アプリケーション.インタラクション2023論文集,pp. 981-986, 2023年3月.インタラクティブ発表賞(一般投票).
  5. 田中雄大,藤田和之,高嶋和毅,北村喜文.デスクワーク中の頭部姿勢に応じた空間音響フィードバック提示手法.インタラクション2023論文集,pp. 820-824, 2023年3月.
  6. 中川久倫,伊藤弘大,藤田和之,岸楓馬,福島力也,伊藤雄一.エクスカキバー:ビジュアル・サウンドエフェクトを用いた筆記支援.インタラクション2022論文集,pp. 641-644, 2022年3月.インタラクティブ発表賞(PC推薦・一般投票).
  7. 井熊勇介,伊藤弘大,藤田和之,角谷星哉,名富太陽,物永斉,伊藤雄一.床型デバイスを用いた歩容取得による人物の推定.インタラクション2022論文集,pp. 684-686, 2022年3月.
  8. 三津谷海度,伊藤弘大,藤田和之,岸楓馬,福島力也,伊藤雄一.SenseDesk:重心重量によりユーザの状態推定が可能なデスクの開発.インタラクション2022論文集,pp. 687-689, 2022年3月.
  9. 加藤麻奈,伊藤弘大,藤田和之,伊藤雄一,植物のメタファを用いたテレワーカーの感性的状態の表現方法の調査,研究報告ヒューマンコンピュータインタラクション(HCI),Vol. 2022-HCI-196, No. 17, pp. 1-8, 2022年1月.学生奨励賞.
  10. 星川結海,藤田和之,高嶋和毅,北村喜文,VRにおける開扉時の視触覚を用いたリダイレクション手法の提案,日本バーチャルリアリティ学会第26回大会論文集, pp. 2B3-7, 2021年9月.
  11. 小川郡平,藤田和之,高嶋和毅,北村喜文,VRにおける段差への擬似的な跳び乗り感覚提示手法の提案,日本バーチャルリアリティ学会第26回大会論文集, pp. 2D3-3, 2021年9月.
  12. 名富太陽,北畠康司,藤田和之,尾上孝雄,伊藤雄一,乳児型デバイスを用いた乳児の抱擁感覚再現手法,日本バーチャルリアリティ学会第26回大会論文集, pp. 2B3-1, 2021年9月.
  13. 永井崇大,藤田和之,高嶋和毅,北村喜文,スマートフォンのみを用いた周囲環境への視線入力インタフェースの検討,ヒューマンインタフェース学会研究報告集, 2021年6月.
  14. 角谷星哉,藤田和之,尾上孝雄,伊藤雄一,ベビーベッド型デバイスを用いた乳児の啼泣認識手法の検討,ヒューマンインタフェース学会研究報告集, 2021年6月.
  15. 遠藤勇,高嶋和毅,井上理哲人,清川清,藤田和之,北村 喜文.周辺とのアドホックなインタラクションを実現する再構成可能なVR HMD.インタラクション2021論文集,pp. 271-273, 2021年3月.インタラクティブ発表賞(PC推薦).
  16. 鈴木蒼生,藤田和之,高嶋和毅,池松香,北村喜文.TiltChair:座面の前傾により姿勢誘導するオフィスチェア.インタラクション2021論文集,pp. 134-139, 2021年3月.
  17. 川崎祐太,伊藤雄一,藤田和之,尾上孝雄,アクティブ音響センシングを用いた物体情報識別における環境温度変化に関する一検討,ヒューマンインタフェース学会研究報告集, 2020年10月.
  18. 鈴永紗也,伊藤雄一,藤田和之,白井僚,尾上孝雄,ストライプ状LED群を用いたフレキシブルディスプレイ,ヒューマンインタフェース学会研究報告集, 2020年10月.
  19. 西村賢人,伊藤雄一,藤原健,藤田和之,松井裕子,彦野賢,尾上孝雄.SenseChairによる意見発散課題におけるコミュニケーションとうなずきの関係性に関する検討.信学技報, Vol. 120, No. 136, HCS2020-32, pp. 65-70, 2020年8月.
  20. 泉健太, 鈴木蒼生, 市川将太郎, 高嶋和毅, 藤田和之, 北村喜文.ラバーハンド錯覚を利用した身体への映像と触覚の同時提示に関する検討.ヒューマンインタフェース学会研究報告集, Vol. 22, pp. 37-42,2020年5月.
  21. 土田太一,藤田和之,中原和洋,山田茂雄,高嶋和毅,北村喜文.バーチャルな影による奥行き錯覚を用いた付箋紙の移動操作と類似度可視化インタフェース.インタラクション2020論文集,pp. 848-851, 2020年3月.プレミアム発表.
  22. 中原和洋,藤田和之,土田太一,高嶋和毅,北村喜文.机上へのプロジェクションによる紙面テキストハイライト手法.インタラクション2020論文集,pp. 909-911, 2020年3月.プレミアム発表.
  23. 林大悟,藤田和之,原航太郎,高嶋和毅,北村喜文.地図グラフデータ内のトポロジー誤り発見・修正のためのインタラクション手法.インタラクション2020論文集,pp. 639-641, 2020年3月.
  24. 遠藤勇,工藤義礎,高嶋和毅,藤田和之,北村喜文.周辺環境への気づきやインタラクションが可能なHMDに関する検討.日本バーチャルリアリティ学会第24回大会論文集,pp. 6C-01,2019年9月.
  25. 大西悠貴,高嶋和毅,藤田和之,北村喜文.平面ディスプレイの移動による擬似力覚の生成に関する研究.日本バーチャルリアリティ学会第24回大会論文集,pp. 1A-07,2019年9月.
  26. 海老晃行,陳林峰,高嶋和毅,藤田和之,北村喜文.ドローン操縦時の空間把握のための操縦状況に連携した副ドローンカメラ自動配置手法.ヒューマンインタフェースシンポジウム2019論文集, 2019年9月.
  27. 藤田和之.CHIワークショップ開催報告.情報処理学会研究報告,Vol. 2019-HCI-184, No. 11, 2019年7月.
  28. 鈴木蒼生,藤田和之,高嶋和毅,北村喜文.座面の座り心地を制御可能な椅子に関する一検討.ヒューマンインタフェース学会研究報告集,Vol. 21, No. 4, pp. 37-40. 2019年6月.
  29. 鈴永紗也,伊藤雄一,藤田和之,尾上孝雄.ガラス管を用いたボリューメトリックディスプレイのための気泡位置制御.ヒューマンインタフェース学会研究報告集,Vol. 21, No. 4, pp. 31-36. 2019年6月.
  30. 井上理哲人,天間遼太郎,藤田和之,高嶋和毅,北村喜文.ドローンとARを用いて交差点の死角を可視化するユーザインタフェース.電子情報通信学会総合大会論文集,pp. ISS-SP-078. 2019年3月.
  31. Mengting Huang,藤田和之,高嶋和毅,真鍋宏幸,北村喜文.タッチスクリーン上に重ねた透明シートを利用した位置と速度制御の併用が可能なユーザインタフェース.インタラクション2019論文集,pp. 276-278, 2019年3月.インタラクティブ発表賞(PC推薦).
  32. 藤田和之,西川政行,小笠原豊,白鳥毅,大橋一広,会議支援のための情報表出空間の構築,第31回人工知能学会全国大会,2P1-4,2017年5月.
  33. 津川翔,茂木佑希子,菊地佑介,岸野文郎,藤田和之,伊藤雄一,大崎博之,Twitter におけるユーザの活動履歴を利用したうつ傾向の推定に関する一検討,第 33 回インターネット技術第 163 委員会研究会, 2013年5月.
  34. 津川翔,茂木佑希子,菊地佑介,岸野文郎,藤田和之,伊藤雄一,大崎博之,Twitter 解析によるうつ傾向推定に関する一検討,電子情報通信学会総合大会講演論文集 (A-14-6), p.187, 2013年3月.
  35. 脇田昌紀,岸野文郎,藤田和之,伊藤雄一.SenseChairを用いた同調傾向の計測,電子情報通信学会総合大会講演論文集 (A-14-5), p.186, 2013年3月.
  36. 津川翔,茂木佑希子,菊地佑介,岸野文郎,藤田和之,伊藤雄一,大崎博之,大規模ツイートデータを利用したうつ傾向の推定に関する検討,電子情報通信学会技術研究報告 (HCS2012-89), pp.61-66, 2013年2月.
  37. 藤田和之,伊藤雄一,高嶋和毅,中島康祐,林勇介,岸野文郎.Ambient Party Room: パーティ場面における部屋型会話支援システムの構築,第91回ヒューマンインタフェース学会研究報告集,Vol. 14, No. 8, pp. 7-10, 2012年9月.
  38. 藤田和之,城所宏行,伊藤雄一.アナログパラパラデジタルマンガ,日本バーチャルリアリティ学会第17回大会 オーガナイズドセッション, 2012年9月.
  39. 藤井佑一,岸野文郎,藤田和之,中島康祐,伊藤雄一,菊地日出男.U-brella: 降り注ぐ情報を可振化するポータブル傘型インタフェース,日本バーチャルリアリティ学会第17回大会論文集,pp. 652-655, 2012年9月.
  40. 高嶋和毅,藤田和之,横山ひとみ,伊藤雄一,北村喜文.6人会話における非言語情報と場の活性度に関する検討,電子情報通信学会技術研究報告,Vol. 112, No. 176 pp. 49-54, 2012年8月.
  41. 遠藤隆介,伊藤雄一,中島康祐,藤田和之,岸野文郎.マルチタッチディスプレイを用いたプランニングができるデジタルサイネージシステムの提案,ヒューマンインタフェース学会研究報告集, Vol. 14, No. 8, 2012年6月.
  42. 児島陽平,伊藤雄一,藤田和之,中島康祐,尾上孝雄.空間内の複数人員配置のための指示位置提示手法に関する検討,ヒューマンインタフェース学会研究報告集, Vol. 14, No. 8, 2012年6月.
  43. 竹中拓也,岸野文郎,藤田和之,中島康祐,伊藤雄一.二者間の着座状態と会話の活性度の関係に関する検討,電子情報通信学会総合大会論文集, pp. A-14-2, 2012年3月.
  44. 新宅彩加,岸野文郎,石原のぞみ,藤田和之,伊藤雄一.書籍固有の情報を用いた書籍の明るさ判定,電子情報通信学会総合大会論文集, pp. A-16-19, 2012年3月.
  45. 林勇介,伊藤雄一,中島康祐,藤田和之,高嶋和毅,大坊郁夫,尾上孝雄.カップ型デバイス Cup-le を用いた会話実験支援手法,ヒューマンインタフェースシンポジウム2011論文集, pp. 405-408, 2011年9月.
  46. 藤田和之,高嶋和毅,伊藤雄一,大崎博之,小野直亮,香川景一郎,津川翔,中島康祐,林勇介,岸野文郎.Ambient Suite: 部屋型情報空間を用いた対人コミュニケーション支援,ヒューマンインタフェースシンポジウム2011論文集, pp. 395-400, 2011年9月.
  47. 大脇正憲,藤田和之,高嶋和毅,伊藤雄一,北村喜文.マルチタッチ入力環境における撓みスクロール・ズーム手法,ヒューマンインタフェースシンポジウム2011論文集, pp. 429-434, 2011年9月.学術奨励賞.
  48. 藤井佑一,岸野文郎,藤田和之,伊藤雄一.振動ディスプレイを用いた情報可振化インタフェースの一検討,日本バーチャルリアリティ学会第16回大会論文集, pp. 14C-1, 2011年9月.
  49. 前田奈穂,大坊郁夫,藤田和之.関係開始スキルがパーティ場面におけるコミュニケーション行動に及ぼす影響,電子情報通信学会技術研究報告, Vol. 111, No. 190, pp. 5-10, 2011年8月.
  50. 藤井佑一,藤川翔平,岸野文郎,藤田和之,伊藤雄一.情報可振化インタフェース実現のための一検討,電子情報通信学会総合大会論文集, pp. A-15-20, 2011年3月.
  51. 城所宏行,藤田和之,大脇正憲,Khoa Doba,Christopher Chung,伊藤雄一.パランガ:ページをめくる触感を再現する本型デバイス,インタラクション2011 論文集, pp. 609-612, 2011年3月.
  52. 中島康祐,伊藤雄一,築谷喬之,藤田和之,高嶋和毅,岸野文郎.FuSA2 Touch Display: 大画面毛状マルチタッチディスプレイ,インタラクション2011論文集, pp. 547-550, 2011年3月.
  53. 藤田和之,高嶋和毅,築谷喬之,伊藤雄一,北村喜文,岸野文郎.地図ナビゲーションにおけるバーチャルカメラのパン・ズーム・チルトの連動に関する検討,日本バーチャルリアリティ学会第15回大会論文集, pp. 3B1-2, 2010年9月.
  54. 吉田愛,伊藤雄一,尾崎麻耶,菊川哲也,深澤遼,藤田和之,高嶋和毅,北村喜文,岸野文郎.アソブレラ:雨の振動を記録・再生する傘型デバイス,インタラクティブ東京2009シンポジウム,2009年10月.
  55. 藤田和之,伊藤雄一,吉田愛,尾崎麻耶,菊川哲也,深澤遼,高嶋和毅,北村喜文,岸野文郎.アソブレラ:雨と遊ぶ,エンタテインメントコンピューティング2009 (EC2009) 論文集, pp. 73-74, 2009年9月.
  56. 藤田和之,高嶋和毅,築谷喬之,北村喜文,岸野文郎.パン操作にズームとチルトを連動させる地図ナビゲーション,画像の認識・理解シンポジウム(MIRU2009)論文集, pp. 1875-1876, 2009年7月.
  57. 吉田愛,伊藤雄一,尾崎麻耶,菊川哲也,深澤遼,藤田和之,北村喜文,岸野文郎.アソブレラ:傘軸の振動を記録・再生するシステムの検討,電子情報通信学会技術研究報告, Vol. 109, No. 75, pp. 65-68, 2009年6月.
  • Patents
  1. 椅子、前傾角度変更装置、及び、前傾角度変更方法,特願2021-036737.
  2. コミュニケーション支援システム,特願2016-093239,2016年5月6日,特開2017-201479,2017年11月9日.
  3. 表示装置およびプログラム,特願2011-051234,2011年3月9日.
  4. 他 出願 6件
  • Awards
  1. 小川郡平,藤田和之,高嶋和毅,北村喜文.ハンドリダイレクションを用いた広範囲のキャンバスへのVRドローイング体験.第31回インタラクティブシステムとソフトウェアに関するワークショップ (WISS '23) 論文集,2023年12月.対話発表賞(プログラム委員).
  2. 橘優希,藤田和之,高嶋和毅,北村喜文.スマートフォンのみによる視線トラッキング技術を用いた展示案内アプリケーション.インタラクション2023論文集,pp. 981-986, 2023年3月.インタラクティブ発表賞(一般投票).
  3. Yukai Hoshikawa, Kazuyuki Fujita, Kazuki Takashima, Morten Fjeld, Yoshifumi Kitamura. RedirectedDoors: Redirection While Opening Doors in Virtual Reality, Proc. of 2022 IEEE Conference on Virtual Reality and 3D User Interfaces (IEEEVR '22), pp. 464-473, Mar. 2022. Honorable Mention Award.
  4. 中川久倫,伊藤弘大,藤田和之,岸楓馬,福島力也,伊藤雄一.エクスカキバー:ビジュアル・サウンドエフェクトを用いた筆記支援.インタラクション2022論文集,pp. 641-644, 2022年3月.インタラクティブ発表賞(PC推薦・一般投票).
  5. 加藤麻奈,伊藤弘大,藤田和之,伊藤雄一,植物のメタファを用いたテレワーカーの感性的状態の表現方法の調査,研究報告ヒューマンコンピュータインタラクション(HCI),Vol. 2022-HCI-196, No. 17, pp. 1-8, 2022年1月.学生奨励賞.
  6. Yoshiki Kudo, Anthony Tang, Kazuyuki Fujita, Isamu Endo, Kazuki Takashima, Yoshifumi Kitamura. Towards Balancing VR Immersion and Bystander Awareness, Proc. of the ACM on Human-Computer Interaction (ISS '21), Vol. 5, Issue ISS, Article No. 484, pp 1–22, Nov. 2021 [paper] Best Paper Award.
  7. 遠藤勇,高嶋和毅,井上理哲人,清川清,藤田和之,北村 喜文.周辺とのアドホックなインタラクションを実現する再構成可能なVR HMD.インタラクション2021論文集,pp. 271-273, 2021年3月.インタラクティブ発表賞(PC推薦).
  8. 伊藤雄一,石原好貴,白井僚,藤田和之,高嶋和毅,尾上孝雄.StickyTouch: 局所的粘着性を制御可能なタッチディスプレイ.日本バーチャルリアリティ学会論文誌,Vol. 25, No. 4, pp. 384-393, 2020年12月. [paper] 第23回 論文賞
  9. 林大悟,藤田和之,高嶋和毅,Robert W. Lindeman,北村喜文.Redirected Jumping: VRにおける跳躍動作時の移動量操作手法.日本バーチャルリアリティ学会論文誌,Vol. 24, Nol. 4, pp. 341-350, 2019年12月.[paper] 第22回 論文賞
  10. Yoshitaka Ishihara, Ryo Shirai, Yuichi Itoh, Kazuyuki Fujita, Takao Onoye. StickyTouch: An Adhesion Changeable Surface. SIGGRAPH Asia 2019 Emerging Technologies, Nov. 2019. Best Demo Voted by Committee (1 out of 27 presentations).
  11. Mengting Huang, Kazuyuki Fujita, Kazuki Takashima, Taichi Tsuchida, Hiroyuki Manabe, Yoshifumi Kitamura. ShearSheet: Low-Cost Shear Force Input with Elastic Feedback for Augmenting Touch Interaction, Proc. of ISS '19, pp.77-87, Nov. 2019. Best Demo Award (1 out of 14 demos).
  12. Yoshitaka Ishihara, Shori Ueda, Yuichi Itoh, Kazuyuki Fujita. PlanT: A Plant-based Ambient Display Visualizing Gradually Accumulated Information. Asian CHI Symposium: Emerging HCI Research Collection, May. 2019. Best Demo/Poster Awards (5 out of 52 presentations).
  13. Mengting Huang,藤田和之,高嶋和毅,真鍋宏幸,北村喜文.タッチスクリーン上に重ねた透明シートを利用した位置と速度制御の併用が可能なユーザインタフェース.インタラクション2019論文集,pp. 276-278, 2019年3月.インタラクティブ発表賞(PC推薦,214件中7件).
  14. Kosuke Nakajima, Yuichi Itoh, Yusuke Hayashi, Kazuaki Ikeda, Kazuyuki Fujita, Takao Onoye. Emoballoon. The 10th Asia Pacific Conference on Computer Human Interaction (APCHI2012), Aug. 2012. Best Poster / Demonstration Award.
  15. 大脇正憲,藤田和之,高嶋和毅,伊藤雄一,北村喜文.マルチタッチ入力環境における撓みスクロール・ズーム手法,ヒューマンインタフェースシンポジウム2011論文集, pp. 429-434, 2011年9月.第12回 ヒューマンインタフェース学会 学術奨励賞 (2011年度),
  16. 第18回 国際学生対抗バーチャルリアリティコンテスト (IVRC2010) 明和電機社長賞,作品名:パランガ,2010年8月.
  17. 第16回 国際学生対抗バーチャルリアリティコンテスト (IVRC2008) 東京予選大会 ハンズオン部門 優勝.作品名:アソブレラ,2008年9月.
  18. 第16回 国際学生対抗バーチャルリアリティコンテスト (IVRC2008) 岐阜本戦大会 審査員特別賞,各務原市民賞.作品名:アソブレラ,2008年11月.
  • Invited Talks
  1. Kazuyuki Fujita. Adaptive Spatial User Interfaces That Activate Us. The 26th International Display Workshops (IDW '19), AIS1/INP2-1 (Invited), pp. 13-15, Nov. 2019.
  2. 藤田和之.CHIワークショップ開催報告.情報処理学会研究報告,Vol. 2019-HCI-184, No. 11, 2019年7月.
  3. 働き方変革と未来のワークプレイス,東北大学,第4回 共同プロジェクト研究会「人と空間と情報技術」,2018年3月.
  4. 山田茂雄,藤田和之.アイデアが生まれる空間に住まう「もうひとりの参加者」,東京大学,日本ロボット学会セミナー 第107回 インタラクションにより人や環境に適応するロボット・AIの行動戦略,2017年8月.
  5. 会議支援のための情報表出空間,東北大学,第3回 共同プロジェクト研究会「人と空間と情報技術」,2017年3月.
  6. Office Vision 2020 ~近未来の社会情勢予測から逆引きするオフィス像~,東北大学,第2回 共同プロジェクト研究会「人と空間と情報技術」,2016年2月.
  7. 協創空間 ~トランスボーダーなクリエイティブ・プラットフォームへの仕掛け~,スルガ銀行d-laboミッドタウン セミナー,2015年8月.
  8. イトーキとICT,東北大学,第1回 共同プロジェクト研究会「人と空間と情報技術」,2015年3月.
  9. 藤田和之,城所宏行,伊藤雄一.アナログパラパラデジタルマンガ,日本バーチャルリアリティ学会第17回大会 オーガナイズドセッション, 2012年9月.