Mistral AIがMixtral 8x7Bを発表

Mistral AIは、SMoEモデルに基づくMixtral 8x7Bを発表しました。その性能はGPT-3.5に匹敵します。

このモデルは、数学、コード生成、読解などのタスクに幅広く適用でき、推論速度も向上しています。

Mixtral 8x7BとMixtral 8x7B – Instructは、Apache2.0ライセンスの下でオープンソース化されました。

Mistral AIは、2024年にはGPT-4レベルのモデルをオープンソース化する計画を発表しており、オープンソースの大規模言語モデル分野をリードしていく見込みです。