OpenAI は、ChatGPT との対話をますます流動化し、人間の言語に近づけるためにアクセラレータを押し続けています。本日発表された新しいアップデートでは、アシスタントにユーザーから最も要望の多かった機能の 1 つが導入されました。音声モードは、別のインターフェースを開く必要がなく、チャット内で直接機能するようになりました。一見小さな変化ですが、具体的に日々の体験が変わります。

これまで、音声会話を有効にするには、専用のアイコンのある画面に移動する必要がありましたが、この手順によりチャットの継続性が損なわれ、音声の即時使用が難しくなってしまいました。しかし今日からは、通常のテキスト会話を開始し、タップして音声をアクティブにするだけで十分になります。あたかもメッセージング アプリを介して人間の連絡先と話しているかのように、リアルタイムの文字起こしがチャット フローに直接表示されます。

それは利便性だけの問題ではありません。実際、音声モードの統合により、ChatGPT は地図、天気、グラフ、その他の関連コンテンツなどのコンテキストを変更せずに視覚的な情報を表示できるようになります。 OpenAI が想像する「トータル」アシスタントの体験に近づける機能で、音声に反応するだけでなく、動的な視覚要素で会話を豊かにすることもできます。

さらに、音声モードは、間、口調、ためらい、抑揚を解釈できる高度なモデルを使用しており、応答がより自然で会話のリズムに忠実になります。 Google の Gemini Live と同様に、ChatGPT は、厳格な対話を減らし、より実際のチャットに近い、より人間的なアプローチを目指しています。

この進化は、AI アシスタントが日常生活においてますます中心的な役割を果たすようになる未来に向けた明確な一歩でもあります。