谷歌近期更新了其生成式 AI 的使用條款,明確允許客戶在 “高風險” 領域,比如醫療和就業,使用其生成式 AI 工具進行 “自動決策”,前提是需要有人工監督。這一變化在公司最新發佈的生成式 AI 禁止使用政策中得以體現。

AI醫療 醫生 人工智能

圖源備註:圖片由AI生成,圖片授權服務商Midjourney

根據更新後的政策,客戶可以在監督的情況下,利用谷歌的生成式 AI 做出可能對個人權利產生 “重大不利影響” 的自動決策。這些高風險領域包括就業、住房、保險、社會福利等。之前的條款似乎對高風險的自動決策做出了全面禁止的規定,但谷歌公司表示,其實從一開始就允許在有人的監督下使用生成式 AI 進行此類決策。

谷歌發言人迴應媒體時表示:“人類監督的要求在我們的政策中一直存在,涵蓋所有高風險領域。我們只是重新分類了一些條款,並更明確地列舉了一些例子,以便用戶理解。”

與谷歌的做法相比,谷歌的主要競爭對手如 OpenAI 和 Anthropic 在高風險自動決策方面有更嚴格的規定。OpenAI 禁止使用其服務進行與信用、就業、住房、教育、社會評分和保險相關的自動決策。而 Anthropic 允許其 AI 在法律、保險、醫療等高風險領域進行自動決策,但僅在 “合格專業人士” 的監督下,並要求客戶明確告知其使用 AI 進行此類決策。

關於自動決策的 AI 系統,監管機構對此表示關注,認爲這類技術可能導致結果偏見。例如,研究顯示,AI 在貸款和抵押申請審批中可能會延續歷史歧視。

人權觀察等非營利組織特別呼籲禁止 “社會評分” 系統,認爲這威脅到人們獲取社會保障的機會,並可能侵犯隱私,進行有偏見的畫像。

在歐盟,根據《AI 法案》,高風險 AI 系統,包括涉及個人信用和就業決策的系統,面臨最嚴格的監管。這些系統的提供者必須在數據庫中註冊,進行質量和風險管理,僱傭人類監督者,並向相關部門報告事件等。

在美國,科羅拉多州最近通過了一項法律,要求 AI 開發者披露關於 “高風險” AI 系統的信息,併發布系統能力和侷限性的摘要。與此同時,紐約市禁止僱主使用自動工具篩選候選人,除非該工具在過去一年內經過偏見審計。

劃重點:

🌟 谷歌允許在高風險領域使用生成式 AI,但需人工監督。  

🛡️ 其他 AI 公司如 OpenAI 和 Anthropic 對高風險決策有更嚴格限制。  

⚖️ 各國監管機構對自動決策的 AI 系統進行審查,以防結果偏見。