2月17日、昆侖万維傘下のOperaチームは、Opera DeveloperにDeepSeek R1シリーズモデルを統合し、ローカルでのパーソナライズされた展開を実現しました。この取り組みは、OperaにおけるAI技術応用における更なる拡大を意味し、ユーザーにより強力なローカルAI機能を提供します。

Operaは2024年に、Webブラウザにローカルの大規模言語モデル(LLM)を最初に組み込み、ユーザーに50種類以上のLLMへのアクセス権を提供しました。今回、DeepSeek R1シリーズモデルを統合することで、Opera DeveloperはOllamaフレームワーク(llama.cppで実装)を利用し、ユーザーがローカルでこのモデルを実行できるようにし、ブラウザのAI能力を更に強化しました。

ユーザーは簡単な手順で、ローカルデバイス上でDeepSeek R1モデルを実行できます。まず、最新版のOpera Developerをダウンロードしてアップデートし、ブラウザを開いて左側のサイドバーにあるAriaのアイコンをクリックしてAriaインターフェースにアクセスします。その後、左上のロゴをクリックしてチャット履歴を展開します。次に、設定メニューにアクセスし、「ローカルAIモデル」オプションをクリックします。「deepseek」を検索ボックスに入力し、モデルを選択してダウンロードします。ダウンロードが完了したら、Ariaとの新しいチャットウィンドウを開き、ダウンロードしたモデルを選択するだけで使用できます。

微信截图_20250220085630.png

Operaは、ユーザーに複数のDeepSeek R1モデルの選択肢を提供しており、ユーザーは自身のデバイスの処理能力に合わせて適切なモデルを選択できます。

今回のOperaによるDeepSeek R1モデルの統合は、ユーザーにより強力なローカルAI機能を提供するだけでなく、ブラウザ分野におけるAI技術の応用と普及を更に促進します。Opera Developerのこのアップデートは、ユーザーによりパーソナライズされ、効率的なAI体験をもたらし、同時に昆侖万維のAI技術分野における継続的な革新と応用能力を示しています。