VRと現実をつなぐ「窓」
VR体験者と外部の鑑賞者は、互いに相手の様子をディスプレイで視認できる。
- (現実側) VR HMDを接続したPCに、ディスプレイとWebカメラも接続
- (現実側 )Webカメラで、ディスプレイのそばにいる鑑賞者の様子を撮影
- (VR側) VR空間内に、仮想のディスプレイ(板状のポリゴン)を用意し、Webカメラの映像をテクスチャ(UnityのWebCamTexture)として貼り付け
- (VR側) VR内のディスプレイの裏に、VR用のメインカメラとは別のカメラを設置し、VR空間を撮影
- (現実側) 4.のサブカメラは、映像の出力先をVR用PCに接続したディスプレイに指定することで、現実側の鑑賞者がVR空間の様子を鑑賞できる
- (現実側) VR用PCにはレーザーレンジファインダも接続されており、鑑賞者や物体のディスプレイへの接触を検知する。アプリケーションに応じて、VR空間へ物が飛んでいく、VR体験者と触れ合うなど、接触に応じたインタラクションが生じる
VRから現実への「ワープ」
また、VRアバターの表示先を平面ディスプレイから立体視ディスプレイ(Looking Glass)に変えることで、VR体験者があたかも現実に移動してきたかのような状態を表現する。
- (現実側) VR用PCとは別のPCに、立体視ディスプレイを接続する。立体視ディスプレイはPCのリソース(特にGPU)を占有するため、VR用PCとは別に高性能PCを用意する必要があった
- (VR側) VR用PCと立体視ディスプレイは直接つながっていないため、このままではVRとディスプレイの姿勢が揃わない。そこでWebSocket通信によりHMDとコントローラーの位置・姿勢を共有することによりアバターの姿勢を同期している
- (VR側) 外側の鑑賞者はポイントクラウドで立体的に表示される。RealSenseを利用して、立体視ディスプレイのそばにいる現実の鑑賞者をキャプチャする。RealSenseのRGB-D画像をネットワークで送信するのは困難だったため、今回はVR用PCに有線接続している
- (VR側) VR体験者はコントローラーで現実にある一部の物を動かせる。具体的には、立体視ディスプレイ用PCに接続されたArduinoを介してLEDやサーボモーターなどの電子部品をシリアル通信により操作できる
VRは壁を越えられるのか。という問いかけ的なインタラクション作品。
リアルとの融合の中で、意図せずだと思うけれど神的なものを感じる。
こういうリアルとVRの境界線が溶けるものは面白いなー。
「被ったら独りぼっち」問題を解決できちゃう予感がします、素晴らしいです。
プロトタイピングの定義は「評価のために設計アイデアを客観視し具体化するもの」など、様々なものが存在し、目的も多様だが、私たちとしては、「学習」を目的として重視しています。その中で、本作品はストーリーや技術はもちろん、課題をしっかりと定義し、新しいコンテンツの作成につなげていたところが素晴らしかったです。