韓國科學團隊最近研發了名爲KOALA的人工智能圖像生成模型,採用了知識蒸餾技術,成功將參數減少到7億個。這使得KOALA模型只需要8GB內存就能流暢運行,並且能在短短2秒內生成高質量的圖片。相比於OpenAI的DALL-E模型,KOALA模型生成同樣圖片的速度要快得多。知識蒸餾技術的應用使得小型模型也能快速生成高質量的圖像,爲人工智能領域的發展帶來了新的可能性。