4月14日、最近のメディアによる人工知能生成コンテンツ(AIGC)のセキュリティ問題に関する議論に対して、リブリブAI(Liblib AI)は正式に公式発表を公開し、この問題を重視しており、内部の専門的な点検および改善の進捗状況を報告しました。発表では、一部の複雑なプロンプトの組み合わせや表現を回避する境界的なシナリオにおいて、プラットフォームの生成能力が規範に合致しない状況が生じたことを認めています。
現在、リブリブAIは関連する問題の技術的な修正を完了し、既知のリスク経路を全面的にブロックしました。このような問題が再び発生しないようにするため、プラットフォームは同時に審査メカニズムの全面的なアップグレードを開始しました。攻防トレーニングを強化することで、不正なコンテンツの識別と処理効率を向上させます。また、会社内では責任の再評価メカニズムが開始され、管理と審査プロセスの元でコンテンツセキュリティシステムを完備することを目的としています。
リブリブAIは声明の中で、コンテンツセキュリティがプラットフォームの発展の基本であると強調しました。今後はより高い基準でエコシステムの健全な発展を推進し、社会全体からの共同監督を誠意を持って呼びかけます。今回の出来事は、AIプラットフォームが複雑なコンテンツ攻撃に対応するためには継続的なイテレーションが必要であることを示しており、国内のAIGC業界がより厳格なコンプライアンスと自律的な段階に入る兆しでもあります。

