XRの使い道は、HUDのように使うことなのかもしれない - AIとお料理をしよう
未踏ジュニアでお馴染みの鵜飼さんが持っていたinmo XRというAndroidが入っているXRグラスを貸してもらってちょっとしたハッカソンをしたのですが、使い道に悩んだ挙句、AIで作ったAIと楽しむ料理アシスタントを作りました。そこでXRグラスを使用してAIと料理することを試みたので、紹介します。
今日は深圳で買ってきた@inmoxreality のAndroidが動く眼鏡 Inmo Air 3 向けに Google Slideのスピーカーノートをかっこよく表示できるテレプロンプターアプリを作った。面白いしすぐに実用できそう。(実際は ARグラスで空中に浮いていてくそかっこいいんだけどこれを見せる方法がないのがつらい) pic.twitter.com/lEd14WBgBW
— Yu Ukai (@ukkaripon) January 12, 2026
今日は未踏ジュニアでお馴染みの鵜飼さんが持っていた inmo XR という Android が入っている XR グラスを触ってきて、それで使えそうなプロダクトを考えてきました
inmo XR の可能性を探る
自分はXREAL Oneというレンズも持っていて、それと同じようなことができるんかなーと思っていた。基本的に自分は XREAL をモバイルモニターと同じような使い方しかしていないので、ぶっちゃけこれ向けのアプリを作る必要性をあんまり感じていなかった。専用の UI とか作ったり、API とかを探したりするのが面倒なので。
ただ、実際に触ってみるとやっぱりケーブル不要で、スタンドアロンで動くというのはとても大きな強みで、開発者的にもいろいろできることが増えるので今後こういったデバイスが増えてくるだろうとも感じた XREAL の方式とは違い、非常に薄型で目立ちにくい(それでも違和感はまだあるが)し、メガネ部分の薄さと性能だけで見ればEven Realitiesの上位互換なのか?と思った。
(Even G1 については電電猫猫さんが紹介しているのでおすすめ:) https://note.com/electrical_cat/n/ncbff77528ada
inmo XR が最強なのかはわからない(XREAL としか比べていない)けど、なんとか実用に耐えるところまで来ているなというふうには感じた。重たい動作をさせると耳の周辺が異常なくらい発熱したり、中華あるあるだけど、Play Store が使えず、その周辺のサービスも使えないなどの問題もあった。これは…なんとかして解除する方法があるのかもしれない
また、ディスプレイも面白くて、XREAL ではバードバス光学系?と言って、目が当たりそうなギリギリのところに三角形のミラー(半透過ミラー)を使って目に映像を届けていたんですけど、inmoXR ではこれとは別の方法で、謎技術により超薄型で目に映像が届きます。なんて言ったらいいんだろうか…うっすい数ミリのメガネのレンズの中に、ミラーが埋め込まれていて…横から当てられた映像が見えるというか…(語彙力皆無)
Android ということもあり、マウスに相当する操作方法が必要だった。結果、inmoXR では、タッチパッドみたいなデバイスと、指にはめて使う指輪型のデバイス(これもタッチパッドかな)がある。
現状のウェアラブルデバイスの弱いとこ
これとは別で、inmoXR でも、それ以外でも共通してある問題も認識しました。
ほとんどの高機能な XR グラスでそうだけど、結局全部メガネが重く、少なくとも自分は日常的につけるのには耐えられない。Even G1/G2 みたいな、機能を絞りまくったものならあるのだけれど、フル HD で表示するとか、Android 内蔵させるとか、そういったことをしているものはだいたい重たいし、目が疲れたりする。 あと視力が 0.7 くらいの自分はインサートレンズが必須だったりする。コンタクトレンズ使えば良いのでは?という話も聞くけど、やっぱり目に自分の手で異物を入れて、それを毎日やるだなんて怖いよ… でも、やっぱり人間が機械に順応にするために、そういった我慢も必要何かもしれない w
なので、開発者目線だと、やっぱり性能が良いこういうやつのほうが嬉しいけど、結局普段使いすると疲れまくる。
でもまあ、この辺は割とすぐに治りそうな気がする。時代が進めば小さくなるでしょ…と。
何を作ろう
で、何を作ろうか考えたけど、1 日でサクッと作ろうという話(ハッカソン的な)になったので、結局 inmoXR の最大の長所の Android が動き、デバイス API が使えるところは無視した。それよりも、画面の透過率が高く、まるで HUD のように使える当店と、ケーブルが耳から繋がっていないので、使えるシーンが多くなったところに焦点を当てた。
最近 XREAL で困ったことは…あっそうだ
ということで、料理を手伝う AI アプリを作りました。
(イメージ図 by Gemini)
まあ内容はシンプルです。家にあるものとか、作りたいものとか、適当に言うと、AI が「レシピ.json」(笑)を作成して、それの通りにシステムが動いてくれます。 inmo XR では、良くも悪くも黒色は透明になるという特性がある(これは XREAL も似ているけど、より透明になっている)ので、これを活かした形になる。
で、以前だったらこういうプロダクトとして使えるレベル(プロトタイプにとどまらず、実用できるもの)のものは最低でも 1 週間くらいかかってそうな気もしていたけど、LLM のコーディングアプリ(Cursor)とか使うと 1 日、いや、半日でできる
現状人に必要なのは AI を監視して、なんとなく動きそうかとか、最後までうまくいきそうか、AI の動きを見ていて、修正が必要かどうか、もし修正が必要だったらどのタイミングで中断して修正させるかを判断するスキルだけ。
とりあえず適当に作ったので、試してみてください(LLM 代を払っているので、払えなさそうだったらやめる)
工夫したところ
やっぱり XR だと文字が若干読みずらいのがあったので、ボタンをクソでかくしている。PC で見るとなんだこれっていうデカさだけど、案外 XR だとちょうど良い。
あと、当初はボタンの色が黒っぽかったけど、黒ければ黒いほど透明になる(映画館のプロジェクターも同じだね)ので、明るい環境で使えるようにボタンの色は緑にした。これが一番よく見える。やっぱり映画の HUD が緑なのには理由があったのかもな。
さらに、ボタンを減らす必要性もあった。一応デモではボタンがいくつかあるけど、最終的にはこれを頭の動き(頭を振って次のページ)みたいなもので制御する必要がある。料理中の肉を触ったべったべたな手でタッチパッドを触りたくないからね。なので、将来的にボタンをなくせるように、最大ボタン数は 4 つまでに抑えて、テキスト入力のところも音声入力に対応させている。
ほかに作りたいもの
もしめちゃめちゃグラスの性能が良くて、視野も広がるなら、現実のオブジェクトを認識して、その位置関係に基づいた描画ができるようになるといいなと思っている
まあすでに Vision Pro みたいに、チップを使って映像を取り込むというアプローチを使えばこういったこともできるけど、やっぱりグラスみたいな手軽なかたちで使えると、より社会に受け入れられやすそう(少なくとも vision pro のそれよりは)だし、コストも安い。
実際に料理に使ってみる
鵜飼さんがいたら、inmoXR を貸してくれるけど、自宅にはないので、代わりに XREAL と、スマホを使って料理を作ってみる。ただ、結構色合いは変わったり、耳からケーブルを生やして、PC かスマホに繋がないといけないので、実用性は微妙。
今度料理するときに使ってみて、いけそうだったら追記します
0人が0回拍手しました
関連記事
💸 AIエージェントの請求がやばい
AIエージェントの請求がやばい
アルバイトでもAIエージェントを酷使するそうまめが、コストの痛みと成果評価のジレンマを語り、私は資金確保や責任の置き所について整理した対話録です。
🤖 LLMの使用は検知できるのか
LLMの使用は検知できるのか
学校とかでChatGPT(LLM)などのAIツールの使用を禁止されたことはないだろうか。一時期はOpenAIなどがLLMが書いた文章を検出するソフトウェアなどを試験艇に公開していたが、現在はそういったものは調べてもあまり出てこない。果たしてLLMの使用を確実に検知することはできるのか?
💻 GitHubでチーム開発してみよう
GitHubでチーム開発してみよう
GitHub、アカウント登録はしたけど開発者じゃないから使わないというそこのあなたのために、さっと使い方を説明した記事を書きました。
🤖 GoogleスプレッドシートをAPI経由で読み込もう!
GoogleスプレッドシートをAPI経由で読み込もう!
Google スプレッドシートを API 経由で読み込もう!
去年別のサイトで書いた記事を再公開したものです。
超簡単です。Google スプレッドシートに書いた情報を API...