上海人工智能實驗室近日發佈低成本大模型訓練工具箱XTuner,支持多種硬件適配,開發者最低只需使用8GB消費級顯存即可訓練出適用於具體需求場景的“專屬大模型”,大幅降低訓練成本門檻。XTuner支持與書生·浦語、Llama等多款開源大模型適配,可執行增量預訓練、指令微調等任務類型。同時它兼顧易用性和可配置性,內置了增量預訓練、單輪&多輪對話指令微調、工具類指令微調的標準化流程,讓開發者只需聚焦於數據本身。XTuner再次鞏固上海AI實驗室面向大模型研發與應用的全鏈條開源體系的實用工具屬性,與各界共同推動技術進步。