Googleはユーザーと検索エンジンの間の新しい対話方法に取り組み続けており、今回はPixelユーザーが最もよく使うツールの1つ、つまりホーム画面の検索ウィジェットを視野に入れているようだ。多くの人が毎日、ブラウザを開くことなく、簡単な検索を開始したり、数秒で音楽を認識したりするために使用している要素です。
Google アプリの 16.50.55.ve.arm64 ベータ版の分析から判明したことによると、同社は応答動作の見直しを検討しており、(少なくとも一部の種類のクエリに対して) 結果の単純なテキスト表示を超えた実際の音声出力を導入しています。
Google 検索は間もなくチャット化される可能性があります
これまでのところ、Google は、Pixel ウィジェットから (マイク アイコンをタッチして) 音声検索を開始するか、音楽トラックの自動認識を使用すると、リクエストが音声入力によるものであっても、テキスト結果のみを返します。同様のことが曲認識にも当てはまります。これはインテリジェントかつ自動的に機能しますが、依然として画面上に書かれた情報を表示することに限定されています。
しかし、新しいベータ版では、新しい動作をアクティブにすることができました。同じ入力で、Google は音声で応答することもできるようになり、同時に、すでに知られている古典的なビジュアル インターフェイスを維持します。
最も興味深いニュースは、この音声応答が AI モードに関連しているように見えることですが、これは画面に表示される概要を単純に読み上げるものではありません。対照的に、音声出力は少し異なる分析を提供しており、Google がおそらくエクスペリエンスをより自然で会話的なものにするために、ビジュアル コンテンツと音声コンテンツを分離する実験を行っていることを示唆しています。
実際には、少なくとも音楽クエリや音声で開始されたクエリなどの特定のクエリに関しては、ウィジェットによって実行される検索に対する最初の実際の状況に応じた音声応答の 1 つに直面する可能性があります。
もう 1 つの新しい要素はインターフェイスに関するものです。このエクスペリエンス中、画面の下部にモバイル オーバーレイが表示され、応答を閉じるか、さらなる音声入力による対話を継続するための専用ボタンが表示されます。マイクをもう一度タップすると、ユーザーは完全な AI モードに移行しますが、この場合、Google は応答の音声発声を停止します。
一言で言えば、これはまだ完全に洗練されていないフローであり、決定的なものというよりも実験的なように見えるいくつかの選択肢があります。
現時点では、特に視覚と音声の反応の重なりと一貫性の管理のせいで、この新しい体験はかなり粗雑に見えます。まさにこの理由から、Google がこれらの変更を短期的に、あるいは現状のまま導入することを決定するかどうかは、まったく明らかではありません。
しかし明らかなことは、Google が検索結果の伝達方法を再考し、ユーザーに Gemini やその他の専用モードを強制的に開くことなく、Pixel ウィジェットのエクスペリエンスを会話型アシスタントのエクスペリエンスに近づけようとしているということです。
いつものように、全体像はまだ完全に明確ではなく、この機能が実際にユーザーのデバイスに提供されるかどうか、またどのような形式で提供されるかを理解するには、さらなる更新が必要です。
