最近、ブルームバーグは、アップルが自社で開発中のSiri用の大規模モデルの開発において多くの困難に直面し、戦略を調整することを決定したと報じました。その結果、アップルはグーグルに依頼してGeminiを基盤とする高度な言語モデルをカスタマイズしてもらうことになりました。アップルはこれにより、Siriが複雑なAIタスクを処理する際の欠点を補い、ユーザー体験を向上させたいと考えています。
報道によると、アップルのSiriは「エッジとクラウドの協働」の混合モードを採用することになります。これは、Siriがクラウド上の強力な大規模モデルの能力を活用しながらも、ユーザーのデータのプライバシーを確保できるということを意味しています。さらにSiriの知能レベルを向上させるために、アップグレードされたSiriには3つのコアコンポーネントが導入される予定です。それは、クエリプランナー、知識検索システム、および要約機能です。これらの新機能は、ユーザーが情報をより簡単に取得したり、デバイスを操作したりできるようにすることを目的としています。

アップルは段階的な機能のリリースを計画しており、2026年春のiOS 26.4アップデートで、ユーザーは初めてアプリ内での音声操作機能を体験できる予定です。また、2026年6月のWWDCカンファレンスでは、iOS 27がリリースされ、それとともに多くの重要なAI技術の進展が公開される予定です。これにより、Siriのユーザー体験が大きく変わります。
アップルのこの決定は、AI分野での転換点を示しており、激しい競争の中で継続的に協力を求めている必要性を示しています。グーグルのGemini技術の導入により、Siriは質的な飛躍を遂げる見込みです。今後、Siriは単なる音声アシスタントではなく、ユーザーのニーズを理解し、スマートな提案ができる包括的なインテリジェントアシスタントになるでしょう。
こうした瞬息万変のテクノロジー業界において、アップルの動向は常に注目されています。特にAI技術が急速に進化する現在、競争優位を維持することが非常に重要です。今回のグーグルとの提携は、アップルのAI戦略における成功した転換となる可能性があり、今後のSiriに期待が高まっています。
