MiniMax 發佈國內首個 MoE 大語言模型 abab6

發布於AI新閒資訊
時間 :Jan 16, 2024
閱讀 :1分鐘
MiniMax 於 2024 年 1 月 16 日發佈了國內首個 MoE 大語言模型 abab6,該模型採用 MoE 架構,具備處理複雜任務的能力,並且在單位時間內能夠訓練更多的數據。評測結果顯示,abab6 在指令遵從、中文綜合能力和英文綜合能力上優於之前的版本 abab5.5,並超過了其他大語言模型如 GPT-3.5。abab6 展現了出色的能力,例如教授兒童數學題目和幫助構建關於上海的虛構桌遊。作爲國內首個 MoE 大語言模型,abab6 在處理複雜任務方面表現出色。