Mistral AI推出Mixtral 8x7B,基於SMoE模型,性能媲美GPT-3.5。模型廣泛應用於數學、代碼生成、閱讀理解等任務,推理速度更快。Mixtral8x7B和Mixtral8x7B – Instruct已開源,獲得Apache2.0許可證。Mistral AI計劃於2024年開源GPT-4級別模型,引領開源大語言模型領域。