CoreS3にカメラによる推論を実装するまでの大まかな手順を図にしました。自分で用意した画像データで学習させ、得られた学習済みモデルを使ってスタンドアロンのCoreS3で推論させることができます。動画ではCoreS3のカメラに映った手の指がさしている方向(中央、上、下、右、左)を推論しています。詳細はブログ記事にまとめています。サンプルプログラムをGithubで公開しており、すぐに試すことができます。学習をGoogle Colabで行うことで、開発環境の構築で躓くこともありません。
I made a diagram of the rough steps to enable inference with the CoreS3 camera. You can train with your own image data and infer with standalone CoreS3 using the trained model obtained. In the video, the direction (center, top, bottom, right, left) pointed by the fingers of the hand reflected in the CoreS3 camera is inferred. Details are summarized in the blog post. A sample program is available on Github, so you can try it right away. By learning with Google Colab, you don't get stuck in building a development environment.