蘋果機器學習研究團隊近日發佈了一篇名爲《繪製計算機操作智能體用戶體驗設計空間》的研究論文,深入探討了用戶在與 AI 智能體(Agent)交互時的真實心理和信任邊界。
研究指出,雖然當前行業都在競相提升 AI 的操作能力,但往往忽略了用戶對“自動化”與“控制權”之間的微妙平衡。爲了捕捉最真實的反饋,研究員採用了“綠野仙蹤法”——即讓真人躲在幕後冒充 AI 故意犯錯或陷入死循環,以此觀察用戶在不知情情況下的反應。
研究的核心發現:
反感“靜默假設”:用戶極其討厭 AI 在面對模糊選項時擅自做主。比起爲了追求所謂的“全自動化”而隨機選擇,用戶更希望 AI 在關鍵時刻停下來詢問。
透明度的平衡點:用戶希望瞭解 AI 正在做什麼,但拒絕被事無鉅細的每一個步驟刷屏。在熟悉任務中用戶看重結果,但在涉及金錢(如支付、修改賬戶信息)的任務中,用戶要求擁有絕對的確認權。
信任崩塌迅速:一旦 AI 在未經告知的情況下偏離原定計劃,用戶建立的信任會瞬間瓦解。尤其在網購、轉賬等場景下,AI 的一點點“自作聰明”都會讓用戶感到強烈的不安。
蘋果研究員強調,未來的 AI 智能體設計不應只追求功能強大,更需要建立完善的“用戶控制”和“活動可解釋性”機制,避免 AI 成爲一個不受控的“黑盒”。
