Mistral AIは、SMoEモデルに基づくMixtral 8x7Bを発表しました。その性能はGPT-3.5に匹敵します。
このモデルは、数学、コード生成、読解などのタスクに幅広く適用でき、推論速度も向上しています。
Mixtral 8x7BとMixtral 8x7B – Instructは、Apache2.0ライセンスの下でオープンソース化されました。
Mistral AIは、2024年にはGPT-4レベルのモデルをオープンソース化する計画を発表しており、オープンソースの大規模言語モデル分野をリードしていく見込みです。