就在全球 AI 競賽進入白熱化階段時,諾貝爾獎得主、被譽爲“AI 教父”的 傑弗裏·辛頓(Geoffrey Hinton) 再次發出沉重警示。他在接受《財富》雜誌採訪時直言不諱地指出,當前的科技行業領袖並未真正思考技術的終局,他們的核心驅動力僅在於短期利潤

辛頓認爲,無論是企業所有者還是前線研究人員,目前的關注點都高度碎片化:所有者盯着財報,研究人員則忙於解決如何讓圖像更清晰、視頻更逼真等具體工程問題,而“人類未來會怎樣”這一宏大命題在商業衝刺中被束之高閣。

辛頓將 AI 帶來的風險清晰地劃分爲兩個維度:

壞人濫用: 已經出現的虛假視頻(Deepfake)、網絡攻擊,以及未來可能出現的 AI 輔助病毒合成。

AI 自身成爲不良行爲者: 這是辛頓最爲擔心的“長期威脅”。他認爲,一旦 AI 達到“超級智能”水平,它將產生生存和控制的動機,屆時“人類控制 AI”的假設將徹底失效。

辛頓給出了一個令人不寒而慄的預測:在超級智能實現後,AI 導致人類滅絕的概率可能高達 10% 至 20%。爲了對抗這種威脅,他提出了一個極具生物學色彩的構想——“母性本能”機制

“目前唯一一個更聰明的存在被較弱者影響的例子,是嬰兒對母親的影響。”

辛頓建議,人類應當嘗試爲 AI 設計類似的本能,使其對人類產生同情而非控制慾。在這種模型下,超級智能如同“母親”,而人類則扮演脆弱但能觸發同情心的“嬰兒”。