Metaは先日、Meta LLMコンパイラ(Meta Large Language Model Compiler)を発表し、プログラミング業界に衝撃を与えました。LLMコンパイラのFTD(ファインチューニング版)は、コードサイズ最適化において5.24%の向上を達成し、最適化オプション-Ozを上回りました。一方、GPT-4 Turboはわずか0.03%でした。
Meta LLMはMeta Code Llamaを基盤としたモデルシリーズで、7Bと13Bの2つのバージョンがあります。逆アセンブル能力において、LLMコンパイラFTDは0.96の高い往復BLEUスコアを達成し、GPT-4 Turboの0.43を大きく上回りました。