近年來,隨着人工智能(AI)技術的迅速發展,“開放” 人工智能的概念備受關注。然而,一項最新的研究表明,關於 “開放” 人工智能的宣傳實際上可能誤導公衆和政策制定者,形成對行業集中化的錯誤認知。該研究由康奈爾大學的博士後研究員大衛・威德爾(David Widder)撰寫,並發表於《自然》雜誌。

人工智能,AI,人腦,未來

圖源備註:圖片由AI生成,圖片授權服務商Midjourney

研究指出,許多關於 “開放” 人工智能的說法缺乏準確性,往往只關注 AI 系統開發到部署生命週期的某一階段,而忽視了在大規模 AI 開發和部署中,行業集中度所帶來的重大影響。研究將 “開放” 人工智能與自由和開源軟件進行了比較,探討了 IBM 與 Linux、谷歌與 Android、亞馬遜與 MongoDB 以及 Meta 與 PyTorch 的關係。

研究指出,雖然開源軟件在某種程度上促進了軟件開發的民主化,確保了代碼的完整性與安全性,但 “開放” 人工智能卻並不具備相同的特性。強大的技術公司正在利用 “開放” AI 的說法來塑造政策,聲稱它要麼促進創新與民主,要麼對安全造成威脅。因此,在政策制定時,清晰的定義至關重要。

此外,研究分析了 AI 的本質及 “開放性” 的含義,探討了模型、數據、勞動力、框架和計算能力等方面。雖然 “開放” AI 系統可以提供透明性、可重用性和可擴展性,但 Meta 的 LLaMA-3模型卻被指出缺乏真正的開放性,因爲它僅提供 API 或受限制的模型下載,這種情況被稱爲 “開放洗白”。

在對比中,EleutherAI 的 Pythia 被認爲是最開放的 AI 模型,提供了源代碼、訓練數據和完整的文檔,並以與開放源代碼倡議一致的條款進行許可。然而,儘管 AI 領域的開放性有所進展,但技術巨頭的市場優勢依然顯著,因爲構建大型模型所需的數據、開發時間和計算能力仍然是市場準入的巨大障礙。

研究結論強調,單靠 “開放” AI 無法實現更具多樣性、問責制或民主化的行業環境。大公司在追求 AI 優勢時,常常利用 “開放” AI 來鞏固市場地位,從而掩蓋其壟斷行爲。因此,爲了實現更公平的市場環境,還需要採取反壟斷執法和數據隱私保護等其他措施。研究者最終指出,單純寄希望於 “開放” AI 並不足以改變現狀,反而可能會在企業集中化的背景下使問題更加複雜。

劃重點:  

🧩 研究顯示,關於 “開放” AI 的宣傳常常模糊定義,誤導公衆對行業集中化的認知。  

🔍 “開放” AI 與開源軟件的運作機制不同,許多大型技術公司利用這一概念維護自身利益。  

⚖️ 實現 AI 行業的多樣性和公平競爭需要更多措施,如反壟斷執法和數據隱私保護。