北京智譜華章科技有限公司は先日、自社の大規模言語モデルGLM-4-FlashのAPIインターフェースを一般公開すると発表しました。これは、大規模モデル技術の普及と応用を促進するためです。
GLM-4-Flashモデルは、速度と性能において顕著な優位性を示しています。特に推論速度においては、適応的量子化、並列処理技術、バッチ処理戦略、投機的サンプリングなどの最適化策を採用することで、最大72.14token/sという安定した速度を実現しました。これは同種のモデルの中でも際立った性能です。
性能最適化においては、GLM-4-Flashモデルは10TBの高品質な多言語データを用いて事前学習を行いました。これにより、モデルは多輪会話、ウェブ検索、ツール呼び出しなどのタスクを処理できるだけでなく、最大128Kのコンテキスト長に対応した長文推論もサポートします。さらに、中国語、英語、日本語、韓国語、ドイツ語など26言語に対応しており、強力な多言語能力を備えています。
様々なユーザーの特定のニーズに対応するため、智譜AIはモデルファインチューニング機能も提供しています。これにより、ユーザーはGLM-4-Flashモデルを様々なアプリケーションシナリオに最適化することができます。智譜AIのこの取り組みは、より幅広いユーザー層が高度な大規模モデル技術を体験し活用し、AI技術の応用範囲をさらに拡大することを目指しています。
インターフェースアドレス:https://open.bigmodel.cn/dev/api#glm-4