Sakana AI 是一家專注於自然啓發算法的人工智能研究實驗室,近日推出了一種名爲 Transformer² (Transformer-squared) 的創新自適應語言模型。該模型無需昂貴的微調,即可在推理過程中動態學習並適應新任務,這標誌着大型語言模型 (LLM) 技術發展的重要一步。



Sakana AI 是一家專注於自然啓發算法的人工智能研究實驗室,近日推出了一種名爲 Transformer² (Transformer-squared) 的創新自適應語言模型。該模型無需昂貴的微調,即可在推理過程中動態學習並適應新任務,這標誌着大型語言模型 (LLM) 技術發展的重要一步。


日本數據科學家本田崇人推出開源編程語言“Sui”,旨在解決大語言模型生成代碼的準確性問題,宣稱可實現100%準確率。其設計理念源於日本美學“粋”,強調精煉與去除冗餘,核心原則包括保證零語法錯誤率,並使用數字作爲變量。
南洋理工大學推出首個全面評測大型語言模型處理電子病歷能力的基準EHRStruct,涵蓋11項核心任務、2200個樣本,旨在評估模型在醫療數據理解、信息提取等方面的表現,推動醫療AI發展。
MIT研究團隊開發出實例自適應縮放技術,可根據問題複雜度動態調整大型語言模型的計算資源,提升效率並降低能耗。該研究獲多家機構支持,相關論文已於11月初發布。
OpenAI推出“懺悔”框架,訓練AI模型主動承認不當行爲或問題決策,旨在解決大語言模型因追求“符合預期”而可能產生虛假陳述的問題。該框架引導模型在給出主要答案後進行二次迴應,詳細說明其推理過程。
Evo-Memory是新型智能體框架,通過流式基準評估智能體在連續任務中積累和重用策略的能力,強調動態記憶演變,突破靜態對話記錄限制。