哈佛大學發佈課堂人工智能使用指南

當前,人工智能尤其是大型語言模型(LLMs)的發展引發了對網絡安全法律的關注。哈佛大學學者在黑帽大會上指出,美國《計算機欺詐和濫用法》未能有效保護AI安全研究人員,可能使他們面臨法律風險。學者們指出,現有法律對於如“提示注入攻擊”等行爲界定模糊,研究人員難以判斷行爲合法性。2021年最高法院判決限制了CFAA的應用,但AI交互的特殊性使其界定更復雜。AI安全研究法律討論遠不及版權問題,研究者對自身行爲合法性存疑。學者建議安全研究人員尋求法律支持,並擔憂模糊法律可能導致有潛力的研究人員退出,讓惡意攻擊者得逞,增加安全隱患。未來可能通過法庭訴訟來澄清法律條款,保護善意研究者。
OpenAI最近發佈了GPT-4o系統卡,詳細介紹了在推出新模型前的安全措施和風險評估。GPT-4o在五月份正式上線,評估顯示整體風險爲“中等”,主要風險集中在網絡安全、生物威脅、說服力和模型自主性上。研究人員發現,雖然GPT-4o在影響讀者意見方面可能更具說服力,但整體上並未超過人類。在發佈系統卡的同時,OpenAI面臨來自內部員工和州參議員的批評,質疑其安全標準。一封公開信呼籲提供關於如何處理舉報者和安全審查的解答。GPT-4o的發佈正值美國總統選舉前,存在誤傳信息或被惡意利用的潛在風險。OpenAI希望通過實際場景的測試來防止濫用,但其透明度受到了公衆的關注,尤其是加州參議員斯科特·維納正在推動的一項法案,旨在規範大型語言模型的使用,並要求公司在其AI被用作有害用途時承擔法律責任。
英國競爭與市場管理局(CMA)對亞馬遜投資人工智能初創公司Anthropic的40億美元合作展開調查,擔心此舉可能影響英國市場競爭力。調查基於CMA掌握的信息,認爲合作可能產生不利影響。亞馬遜對此表示不滿,稱合作符合市場標準。CMA已收集公衆意見,並計劃在幾周內評估合作對市場的影響,最終決定將在10月4日公佈。調查涉及Anthropic利用亞馬遜雲服務進行關鍵任務工作,以及亞馬遜在3月對Anthropic的27.5億美元投資。Anthropic否認任何不當行爲,強調其獨立性。CMA還對谷歌與Anthropic的類似合作進行了調查,表明了AI和雲計算領域的競爭加劇。
谷歌雲與國家研究集團的一項調查揭示了生成AI對企業投資回報的顯著影響。在參與調查的全球企業中,61% 使用了生成AI,其中74% 在一年內獲得了回報,86% 的企業報告收入增長超過6%。AI被視爲業務增長的關鍵驅動力,尤其在客戶服務、生產力提升和流程優化方面表現突出,整體生產力提高45%。然而,儘管AI工具被廣泛採用,部分員工並未感受到生產力的提升,這表明企業需要制定全面的戰略,提供培訓,並重新審視對員工生產力的定義。
OpenAI 近日宣佈,ChatGPT 的免費用戶現可每日生成兩張由 DALL-E3 模型創造的圖片,這標誌着 DALL-E3 的首次對免費用戶開放。這一功能的推出,通過 ChatGPT 生成的提示簡化了圖像創作過程,使得用戶僅需簡單描述即可獲得精美的圖像設計。DALL-E3 在上月的亮相主要針對付費用戶,而今的更新爲所有用戶提供了一種便捷的創作工具。OpenAI 表示,此功能正在逐步實施中,部分用戶已開始體驗。在生成過程中,用戶通過 ChatGPT 提出需求,DALL-E3 則生成四個不同選項供選擇,展示出其強大的圖像生成能力。此外,OpenAI 還宣佈了 GPT-4o 模型的安全評估發佈和新董事會成員的加入,同時 CEO 山姆·奧特曼收到了民主黨議員關於其安全記錄的詢問。這一系列動態凸顯了 OpenAI 在技術進步與安全責任方面的持續努力,值得業界關注。
OpenAI任命卡內基梅隆大學機器學習專家Zico Kolter教授爲其董事會成員,此舉旨在加強其在安全決策和項目安全方面的專業能力。作爲機器學習領域的權威,Kolter教授將爲OpenAI的安全與安全委員會提供關鍵支持,確保人工智能系統的安全性和負責任運行。他的加入不僅反映OpenAI對技術安全性的重視,也預示着在Kolter教授的指導下,OpenAI將在未來的發展中更加註重技術的安全應用,確保其項目在技術創新與社會責任間取得平衡。