Googleは、先週BardからGeminiへとブランド名を変更し、ローンチして以来、最新のAI技術を着実にアップデートし、統合してきました。AIの基盤となる大規模言語モデル(LLM)の方向性を守りながら、BardとGeminiを統合しました。また、Googleはサブスクリプションプランと、スマートフォン上でバーチャルアシスタントとして機能するAndroid専用のモバイル版もリリースしました。
「検索の巨人」であるGoogleは、今回の動きでGeminiのさらなるアップグレードを継続しており、今回はスマートヘッドフォンの操作方法と体験を大きく変える可能性があります。9to5Googleによると、Android向け最新Geminiテストバージョン(バージョン15.6)のコードを深く掘り下げたプログラマーが、重要な変更の証拠を発見したとのことです。
スマートヘッドホンのAIはユーザーの音楽体験を向上させる
現在、スマートヘッドホン(例:Pixel Buds)でバーチャルアシスタントを呼び出すと、スマートフォンのデフォルトアシスタントとしてGeminiが指定されているにもかかわらず、システムはGoogleアシスタントを選択します。しかし、今後の公式アップデートでGeminiがAIとして選択されると、この動作は変更される可能性があります。
Googleはこの件に関して公式発表や情報開示を行っていないものの、「Geminiモバイルアプリがヘッドセットからアクセスできるように機能を拡張している」とされるプログラミングコード内の発見は、テクノロジー業界の注目を集めています。あとは、同社がスマートヘッドホンのデフォルトのバーチャルアシスタントとしてGeminiを統合する計画を発表するのを待つだけです。
ヘッドフォンに Gemini が登場したことで、リスニング体験が新たなレベルに引き上げられ、曲の変更、巻き戻し、情報要約の要求、さらには複雑な数式を解くなどのコントロール操作をすべて、手を触れることなく実行できるようになりました。
この変更がどのような利点をもたらすかを判断するのはまだ時期尚早ですが、ヘッドホンが所有者の習慣や再生中の曲に応じて自動的にサウンドを調整できるようになり、AI の世界で新たな音楽体験が実現する可能性があります...
[広告2]
ソースリンク
コメント (0)