1. ユーザーインターフェース
ユーザー入力
ユーザがコントローラーのボタンを押すなどの操作を行います。 この入力が検出システムに送信され、テーブルの選択や再選択がトリガーされます。
2. 環境認識
Meta Quest 3
周囲の環境をリアルタイムでシーン認識し、空間マッピングを行います。 またシーンデータを取得し、検出システムに提供します。
3. 検出システム
シーンデータ取得
Meta Quest 3 から取得したシーンデータを基に、実際の環境内のテーブルなどのオブジェクトを検出します。
テーブル検出
シーンデータを解析し、テーブルとして認識されるオブジェクトを特定します。
テーブルサイズ取得
検出されたテーブルからそのサイズ(幅、高さ、奥行き)を取得します。
4. オブジェクト管理
サイズ調整
取得した実際のテーブルのサイズに基づいて、オブジェクトのサイズを動的に調整します。
オブジェクトの設置
調整されたサイズのオブジェクトを実際のテーブルの位置に合わせて設置します。
5. レンダリング
視覚的インジケーター
ユーザがテーブルを指し示したり選択したりする際に、視覚的なインジケーターを表示します。これにより、ユーザがどのテーブルを選択しているかが明確になります。