OpenAIがChatGPT Healthを発表して数日後、人工知能分野のもう一つの巨頭であるAnthropicは日曜日に、自身のClaudeプラットフォームに医療および生命科学分野の新たな機能を導入したことを発表しました。この動きは、大規模なモデル企業が医療という成長性が高く、敏感な分野で競争を激化させていることを示しています。

Claude

健康データの孤島を解消し、個別化された管理を実現

今回のアップデートの核心は健康記録の深く統合です。ClaudeのProとMaxユーザー(米国地区のテスト版)は、個人の医療記録、保険記録、Apple HealthやAndroid Health Connectからのフィットネスデータをプラットフォームにインポートできるようになりました。

Anthropicの生命科学部門責任者エリック・カダーラー=アブラムス氏は、患者が複雑な医療システムに直面するときに孤立感を感じる傾向があると指摘しました。Claudeを「調整者」として活用することで、ユーザーは多様なチャネルのデータを統合し、本来煩雑な医療プロセスや保険請求手続きを簡略化できます。一方で、OpenAIのChatGPT Healthはまだ候補者段階にあり、これによりAnthropicは実装において先手を取っています。

供給側への支援:医師の事務負担を軽減

一般ユーザーだけでなく、医療機関向けにも、AnthropicはClaude for Life Science製品を強化しました:

  • コンプライアンス: プラットフォームにはHIPAA基準に適合したインフラが含まれており、医療のプライバシーを確保します。

  • 自動化: 連邦医療データベースや公式登録システムとの接続をサポートし、専門医療の予約申請を自動的に準備できます。

  • 効率向上: コラボレーターのCommureのCTOであるDhruv Parthasarathy氏は、この技術が年間何百万時間もの時間を医師に節約でき、患者ケアに集中できるようになると語りました。

プライバシー保護と安全の境界線

技術が急速に浸透する中で、規制と倫理的な審査もますます厳しくなりました。最近、Character.AIとグーグルは青少年のメンタルヘルスに関する訴訟で和解し、業界に対して再び警鐘を鳴らしました。

そのため、Anthropicは発表時に3つの「防火壁」を明確にしています:

  1. プライバシーの約束: 健康データはモデルのメモリに保存されず、将来のシステムのトレーニングにも使用されません。ユーザーはいつでも権限を取り消すことができます。

  2. 診断の非依存: AIツールは複雑なレポートや情報の要約を理解するための補助であり、専門的な診断を置き換えるものではないと強調しています。

  3. 人間の介入: このポリシーでは、医療決定に関わる出力は、最終的に確定される前に適格な専門家による審査が必要とされています。

カダーラー=アブラムス氏の言葉のように、「これらのツールは90%の時間を節約できますが、生死を決める細かい点においては、AIは人間の専門家の能力を補完するものであり、代替ではありません。」