谷歌(Google)近日更新了其生成式AI的使用條款,明確指出客戶可以在醫療保健等“高風險”領域部署其生成式AI工具進行“自動化決策”,但前提是必須有人工監督。

根據谷歌週二發佈的最新版《生成式AI禁止使用政策》,客戶可以使用谷歌的生成式AI做出可能對個人權利產生“重大不利影響”的“自動化決策”。只要有人工以某種形式進行監督,客戶就可以使用谷歌的生成式AI來決定就業、住房、保險、社會福利和其他“高風險”領域的事項。

在AI領域,自動化決策指的是AI系統基於事實數據和推斷數據做出的決策。例如,一個系統可能會自動決定是否批准貸款申請,或篩選求職者。

谷歌 (3)

此前,谷歌的條款草案暗示全面禁止在高風險自動化決策中使用該公司的生成式AI。但谷歌告訴TechCrunch,只要有人工監督,客戶始終可以使用其生成式AI進行自動化決策,即使是高風險應用也不例外。

“對於所有高風險領域,我們的人工監督要求始終存在於我們的政策中,”谷歌發言人在通過電子郵件聯繫時表示,“我們正在重新分類[條款中的]一些項目,並更明確地列出一些例子,以使客戶更清楚地瞭解。”

谷歌的主要AI競爭對手OpenAI和Anthropic對高風險自動化決策中AI的使用有更嚴格的規定。例如,OpenAI禁止將其服務用於與信貸、就業、住房、教育、社會評分和保險相關的自動化決策。Anthropic允許其AI在法律、保險、醫療保健和其他高風險領域用於自動化決策,但前提是必須由“合格的專業人員”監督,並且要求客戶披露他們正在爲此目的使用AI。

影響個人的自動化決策AI受到了監管機構的密切關注,他們對這項技術可能造成的偏見結果表示擔憂。研究表明,例如,用於批准信貸和抵押貸款申請的AI可能會延續歷史歧視。

非營利組織人權觀察呼籲禁止“社會評分”系統,該組織認爲這可能會破壞人們獲得社會保障支持的機會,損害他們的隱私,並以帶有偏見的方式對他們進行畫像。

在歐盟的《人工智能法案》中,高風險AI系統(包括做出個人信貸和就業決定的系統)面臨最嚴格的監管。這些系統的提供商必須在數據庫中註冊,執行質量和風險管理,僱用人工監督員,並向相關部門報告事件,以及其他要求。

在美國,科羅拉多州最近通過了一項法律,要求AI開發人員披露有關“高風險”AI系統的信息,併發布總結系統功能和侷限性的聲明。與此同時,紐約市禁止僱主使用自動化工具篩選候選人的就業決定,除非該工具在前一年內接受過偏見審計。

此次谷歌澄清AI使用條款,表明了該公司在AI應用監管方面的態度。允許高風險領域自動化決策,但又強調人工監督的重要性,這既體現了AI技術應用的潛力,也反映了對潛在風險的警惕。