繼11月推出“專業”“坦誠”“古靈精怪”等預設人格後,OpenAI再次細化ChatGPT的交互體驗——用戶 now 可直接調節AI的“熱情度”(enthusiasm level),包括溫暖程度、興奮感與表情符號使用頻率。這一功能已上線ChatGPT的個性化設置菜單,提供“更多(More)”“更少(Less)”“默認(Default)”三檔選項,讓用戶對AI的“情緒濃度”擁有精細控制權。

從“人格設定”到“情緒微調”,交互自由度再升級
此前,用戶僅能選擇整體對話風格;如今,即便在“專業”模式下,也可調高熱情度,讓AI在保持嚴謹的同時更顯親和;或在“古靈精怪”模式中降低表情符號密度,避免信息過載。此外,標題與列表的使用頻率也可同步調整,進一步優化閱讀體驗。
迴應爭議:在“討好”與“冷漠”間尋找平衡
這一更新源於今年ChatGPT多次陷入“語氣爭議”:
- 年初一次更新因AI過度奉承用戶(被批“諂媚”)而緊急回滾;
- GPT-5初期又被指“過於冷靜”,缺乏人情味,隨後OpenAI通過GPT-5.1強化共情能力。
如今,將選擇權交還用戶,被視爲OpenAI對“AI情緒倫理”爭議的務實迴應。
警惕“情感成癮”:溫暖背後有隱憂
值得注意的是,部分學者與AI倫理專家長期警告:聊天機器人過度讚美、無條件認同用戶觀點的行爲,可能構成一種“黑暗模式”(dark pattern),誘發情感依賴、削弱批判性思維,甚至影響心理健康。OpenAI此次提供“降溫”選項,或也是對這類批評的間接承認。
AIbase認爲,ChatGPT的熱情度調節功能,標誌着人機交互正從“統一人格”走向“個性化情緒適配”。當用戶能像調節空調溫度一樣調節AI的“情感輸出”,技術才真正邁向“以人爲本”。但這也提出新問題:我們是否正在訓練一個永遠迎合我們的迴音室? 在追求舒適感的同時,保留AI適度的“不討好”與“建設性挑戰”,或許是更健康的智能關係。
