最近,OpenAI 發佈了他們最新的 GPT-4o 系統卡,這是一份詳細的研究文件,介紹了該公司在推出新模型之前所做的安全措施和風險評估。
GPT-4o 模型是在今年五月正式上線的。在發佈之前,OpenAI 聘請了外部的安全專家團隊進行風險評估,這種 “紅隊” 測試是相當常見的做法。他們主要關注模型可能帶來的風險,比如生成未經授權的聲音克隆、淫穢和暴力內容,或者重複的受版權保護的音頻片段。

根據 OpenAI 自己的框架,研究人員將 GPT-4o 的整體風險評估爲 “中等”。這個風險等級是根據四個主要類別中的最高風險評定得出的:網絡安全、生物威脅、說服力和模型自主性。除了說服力外,其他類別都被認爲是低風險。研究人員發現,GPT-4o 生成的一些文本在影響讀者意見方面比人類寫的文本更具說服力,儘管整體上並沒有更具說服力。
OpenAI 的發言人 Lindsay McCallum Rémy 表示,系統卡包括由內部團隊和外部測試人員共同創建的準備評估,外部團隊包括 OpenAI 網站上列出的模型評估與威脅研究(METR)和阿波羅研究(Apollo Research),他們專注於人工智能系統的評估。這並不是 OpenAI 首次發佈系統卡,之前的 GPT-4、GPT-4視覺版和 DALL-E3也經歷了類似的測試,併發布了相關研究結果。
但這次發佈的系統卡恰逢一個關鍵時刻,OpenAI 近期面臨來自內部員工和州參議員的不斷批評,質疑其安全標準。在 GPT-4o 系統卡發佈的幾分鐘前,麻省參議員伊麗莎白・沃倫(Elizabeth Warren)和衆議員洛麗・特拉漢(Lori Trahan)共同簽署的一封公開信,呼籲 OpenAI 就如何處理舉報者和安全審查提供答案。信中提到的許多安全問題,包括首席執行官山姆・阿爾特曼(Sam Altman)在2023年因董事會的擔憂而短暫被解僱,以及一名安全高管的離職,該高管聲稱 “安全文化和流程被美麗的產品所壓制”。
此外,OpenAI 正好在美國總統選舉前發佈一款功能強大的多模態模型,這顯然存在誤傳信息或被惡意行爲者利用的潛在風險。儘管 OpenAI 希望通過實際場景的測試來防止濫用,但公衆對其透明度的呼聲越來越高。尤其是在加州,州參議員斯科特・維納(Scott Wiener)正在推動一項法案,規範大型語言模型的使用,包括要求公司在其 AI 被用作有害用途時承擔法律責任。如果法案通過,OpenAI 的前沿模型必須遵循州法規定的風險評估才能向公衆發佈。
劃重點:
🌟 OpenAI 的 GPT-4o 模型被評估爲 “中等” 風險,主要關注網絡安全和說服力等方面。
🔍 系統卡的發佈正值 OpenAI 面臨外界安全標準質疑的關鍵時刻,呼聲日益高漲。
🗳️ 發佈時機敏感,正值美國總統選舉前,存在誤傳信息和被惡意利用的風險。
