在一個令人振奮的夜晚,奧普拉・溫弗瑞爲我們呈現了一場關於人工智能(AI)的特別節目,名爲 “AI 與我們的未來”。這場盛會吸引了不少重量級嘉賓,包括 OpenAI 的首席執行官薩姆・奧特曼、科技影響者馬奎斯・布朗利以及 FBI 局長克里斯托弗・雷。整個節目的基調相當謹慎,彷彿每個人都在默默打着鼓。
奧普拉在開場時指出,AI 的 “魔鬼” 已經從瓶子裏釋放出來,雖然這可能意味着好事,也可能是壞事。她提醒大家,人類必須學會與這項技術共存。“AI 超出了我們的控制範圍,並且我們對它的理解也相對有限,但它已經來到我們身邊,我們需要思考它是我們的盟友還是對手…… 我們是這個星球上最具適應能力的生物,我們會再次適應。但要保持對現實的警覺,風險可不是開玩笑的。”

圖源備註:圖片由AI生成,圖片授權服務商Midjourney
作爲第一個接受採訪的嘉賓,奧特曼信心滿滿地聲稱,如今的 AI 能夠理解其訓練數據中的概念。“我們向系統展示一千個詞,詢問它接下來會發生什麼,” 他說,“系統在預測中學習,從而理解其內在概念。” 然而,許多專家對此並不買賬。
像 ChatGPT 這樣的 AI 系統確實會預測下一句話最可能的單詞,但它們實際上只是統計機器,並沒有真正的意圖,純粹是基於數據模式做出明智的猜測。
儘管奧特曼可能誇大了當前 AI 系統的能力,但他強調了安全測試這些系統的重要性。“我們需要讓政府開始思考如何對這些系統進行安全測試,就像我們對飛機或新藥那樣。” 他透露,自己幾乎每天都會與政府人員進行交流。
奧特曼對監管的呼籲或許帶有自身的利益考量,畢竟 OpenAI 曾反對加州的 AI 安全法案 SB1047,聲稱這將 “扼殺創新”。不過,前 OpenAI 員工和 AI 專家如傑弗裏・辛頓卻支持該法案,認爲這將對 AI 的發展施加必要的安全保障。
在節目的另一部分,奧普拉向奧特曼提問,爲什麼人們應該信任他。對此,奧特曼避而不談,表示他們的目標是逐步建立信任。此前,他曾明確表示,大家不應只信任他或任何單一人物來確保 AI 造福人類。
接下來的討論中,奧普拉順勢引入了深僞影像的話題。馬奎斯・布朗利爲了說明合成媒體的逼真程度,展示了 OpenAI 的 AI 視頻生成器 Sora 與早期 AI 生成影像的對比。結果顯示,Sora 的樣本相當出色,充分展現了這一領域的快速進步。“雖然現在你還可以看出其中的瑕疵,” 布朗利表示,但奧普拉卻覺得那看起來非常真實。
深僞影像引出了與 FBI 局長雷的對話,他回憶起自己首次接觸 AI 深僞技術的情景。“我在一個會議室,FBI 的同事們向我展示瞭如何製作 AI 增強的深僞影像,” 雷回憶說,“他們製作了一個我從未說過的話的影像。” 他指出,AI 輔助的敲詐行爲正在急劇增加,2022年至2023年間,相關案件增長了178%。
雷描述了這種敲詐手法的流程,先是僞裝成同齡人來引誘青少年,然後用 AI 生成的圖片來施壓。他表示,“實際上,背後是坐在尼日利亞的某個傢伙,一旦獲取到真實照片,就會用此進行威脅。”
他還提到即將到來的美國總統大選中的虛假信息問題,強調目前並不需要恐慌,但 “每個美國人” 都應提高警惕,意識到 “壞人” 可能會利用 AI 對我們進行攻擊。
接下來,奧普拉與微軟創始人比爾・蓋茨進行了暢談,蓋茨對 AI 在教育和醫療領域的前景表示樂觀。他設想,AI 就像是在醫療預約中的第三者,負責記錄和建議處方,這樣醫生就能更多地與病人互動,而不是面對電腦屏幕。
不過,蓋茨似乎忽略了訓練不當可能導致的偏見。最近的一項研究表明,主要科技公司的語音識別系統在識別黑人說話者的音頻時,出錯率是白人說話者的兩倍。另有研究顯示,AI 系統可能會加強一些長久以來的錯誤信念,例如關於黑人和白人之間生物差異的虛假觀點,這些觀點可能會導致醫生誤診。
在教育領域,蓋茨相信 AI 能夠提供 “隨時可用” 的學習體驗,瞭解如何激勵學生。然而,並不是所有學校都對這一點抱有期待。
去年夏天,許多學校因擔心抄襲和錯誤信息而急忙禁止使用 ChatGPT,雖然一些學校後來又恢復了使用,但仍有不少人對 AI 的潛力表示懷疑。有調查顯示,超過一半的孩子反映看到同齡人利用 AI 以不良方式,例如製造可信的虛假信息或圖像來傷害他人。
聯合國教科文組織在去年底也呼籲各國政府監管 AI 在教育中的使用,包括爲用戶實施年齡限制和數據保護措施。
通過這一場與 AI 的深度對話,觀衆們得以更加清晰地認識到技術的快速發展與其可能帶來的風險,同時也引發了關於人類未來與 AI 的深刻思考。
