当メディアのリンクにはアフィリエイト広告が含まれています

Google、2026年にAIスマートグラス発売。Gemini搭載で“スマホを取り出さない未来”が近づく

画面なし音声アシスト版とレンズ内ディスプレイ版の2モデルを展開。SamsungやWarby Parkerと協業し、Metaや将来のApple製品に挑む。

Google AI Smart Glasses 1

Google2026年に2種類のAIスマートグラスを発売することを明らかにした。1つ目はスクリーンレスでAIアシスタント機能に特化したモデル、2つ目はレンズ内ディスプレイを搭載した拡張現実(AR)対応モデルとなる。同社が本日発表した。

いずれのモデルもGoogle Geminiとの統合により、リアルタイムのAIアシスタンス機能を提供する。スマートフォンと連携し、処理は接続したデバイス側で行われる仕組みだ。

高精度なGemini搭載、ChatGPTを上回る評価も

最新のGeminiは精度が非常に高く、AIにどっぷり浸かっている人ほど「ChatGPTよりも良いのではないか」という論調が急激に増している印象を受ける。そのような評価を受けているAIがメガネ型デバイスに埋め込まれることは、圧倒的な強みになるはずだ。

何よりも、自社製デバイスのないOpenAIに対して、Googleは圧倒的な優位性を持つことになる。ハードウェアとソフトウェアの統合によるユーザー体験の最適化は、Appleが長年実証してきた成功モデルだ。

スクリーンレスAIグラス、カメラとマイクで周囲を認識

1つ目のスマートグラスは、内蔵スピーカー、マイク、カメラを搭載し、画面なしでGoogle Geminiとやり取りできる設計となっている。ユーザーはカメラで写真を撮影し、周囲の環境について質問することで、リアルタイムでサポートを受けられる。

Google AI Smart Glasses 2

このモデルは、視覚的な情報表示よりも音声によるインタラクションを重視したデザインとなっており、日常的な使用を想定している。

AR対応モデル、ナビや翻訳をレンズに表示

2つ目のスマートグラスは、1つ目と同じAI機能に加え、レンズ内ディスプレイを搭載する。ターンバイターンのナビゲーションやリアルタイム翻訳の字幕など、有用な情報を視界に直接表示できる仕様だ。

両モデルともAndroid XRを搭載し、Googleのウェアラブル向けプラットフォーム上で動作する。スマートフォンとの接続が前提となっており、グラス単体での処理は行わない。

音声入力の延長線上にある未来

僕自身、最近は両手が塞がっているときにiPhoneの音声入力を多用している。ちょっとしたメッセージを送るときや簡単に調べたいときに大活躍しており、最近はiPhoneを取り出すことすら面倒と感じるようになった。

その点、ディスプレイかつ音声が利用できるAIスマートグラスは物凄く良さそうだ。情報へアクセスするハードルがまた一段低くなることは間違いないだろう。

デザイン重視、Warby ParkerやGentle Monsterと協業

GoogleSamsungとパートナーシップを組み、スマートグラスの開発を進めている。さらに、アイウェアブランドのWarby ParkerとGentle Monsterとも協力関係を構築した。

Googleによると、これらの提携により、スタイリッシュで軽量、かつ終日快適に着用できるデザインを実現するという。一般的な眼鏡と変わらない外観を目指している。

MetaとAppleとの競争激化へ

GoogleのAIスマートグラスは、すでに市場に投入されているMetaのRay-Banスマートグラスや、Appleが開発中とされる製品と競合することになる。MetaはすでにAI機能を搭載したRay-BanとOakleyのスマートグラスを販売しており、レンズ内ディスプレイを搭載したRay-Banモデルも展開している。

一方、Appleも2026年にも初のAIスマートグラスを発表する可能性があるとされている。各社がAIとウェアラブル技術を組み合わせた次世代デバイスの開発を加速させており、2026年はスマートグラス市場の転換点となりそうだ。

もっと読む

12本の記事を表示する
公開情報
執筆者g.O.R.i
コメント(0件)

コメントは承認後に表示されます。良識のあるコメントを心がけ、攻撃的な表現や他人が傷つく発言は避けましょう。なお、コメント投稿時に「利用規約」に同意したとみなします。

日本語が含まれない投稿は無視されますのでご注意ください。(スパム対策)

「Googleニュース・噂 ・最新情報」新着記事
トレンド検索