日本人工智能初創公司 ELYZA 發佈了一款基於 Meta 的 Llama 2 的日本語言模型,參數量達到 70 億,性能與 GPT3.5 相媲美。該模型經過追加事前學習和獨特的事後學習,獲得了 5 級手動評估的最高分。ELYZA 成功將其他語言的 LLM 能力引入日本語,通過減少日本語學習量改進了模型。