Gemini 2.0とAndroid XRで理想のAI体験が可能に
Gemini 2.0が利用可能になりましたが、同時にAndroid XR(OS)も発表されています。
Android XRで理想のAI体験
Gemini 2.0ではカメラ越しの映像について質問・回答が可能になっており、「Project Astra」と呼ばれているシステムの紹介動画では、スマートグラスにてGemini 2.0が機能していることが確認できます。
Android XRはOSとなっており、VRヘッドセットタイプのものやARグラスタイプのものが今後登場してくるとのこと。
例えば、AIのアドバイスで折り紙を折ったり、ブドウを数えたり、ウォーリーを探したり。
スマートフォンを出さなくても、あらゆる場面でAIのサポートを受けながら生活していく時代が、もう眼の前まで迫っているのですね。
音声出力とマイク入力とカメラだけのヘッドセットが欲しい
AR・VR系のレンズ付きヘッドセットがメインに考えられているようですが、レンズがあるとゴツいですしバッテリーの駆動時間も短くなります。
取り敢えずは映像出力はなくても良いので、音声出力とマイク入力とカメラだけのヘッドセットでAIが使えるようになったらな、と期待。
Gemini 2.0では、既にカメラの映像を元にAIが音声で回答するという利用方法が可能な状態ですので、普通のヘッドセットとヘッドカメラを同時に付ければ、現状でもカメラに映るものに対して音声でのAIとのやり取りができそうです。
Google AI StudioにてGemini 2.0を使ってできそうなことを確認したのち、カメラ付きマイク&イヤホンのヘッドセット製品を探してみましたが、そういった製品はあまり出ていないようで、端末に映像を送れるタイプもなく用途的に使えそうなのは見つかりませんでした・・
ヘッドカメラはサイズが大きいですし、それなら胸ポケットなんかに差すタイプのやつならイケるのかな・・・
おそらく、今の段階ではリアルタイムで映像を取得しているのではなく、問いかけがあった時にキャプチャした画像を読み込んでAIが回答している感じでしょうから、期待通りとはまだまだいかないかもですけどー。