最近のThreads投稿で、Instagramの責任者であるアダム・モセリは、増加するAI生成コンテンツに対処するためにソーシャルメディアユーザーが警戒心を高めるべきだと強調しました。
彼は、AI技術が現実と非常に似たコンテンツを生成できるようになったため、オンラインで見かける画像や情報は必ずしも真実ではない可能性があると指摘しました。情報の真偽を判断する助けとして、モセリはコンテンツの出典を考慮すべきであり、ソーシャルプラットフォームもその支援をする責任があると述べています。
モセリは、ソーシャルメディアプラットフォームの役割は、生成されたAIコンテンツに可能な限りラベルを付け、ユーザーが識別できるようにすることだと述べています。しかし、一部のコンテンツは見逃され、タイムリーにラベル付けできない可能性もあることを認めています。そのため、プラットフォームは、ユーザーがコンテンツへの信頼度をより適切に判断できるように、コンテンツを共有するユーザーの背景情報も提供する必要があると強調しています。彼の見解は、ソーシャルメディア情報の信頼性に対する深い懸念を反映しています。
現時点では、Meta(Instagramの親会社)は、ユーザーがコンテンツの真偽を判断するのに十分なコンテキスト情報を提供していません。それにもかかわらず、同社は最近、コンテンツルールの大幅な変更を示唆しています。この変更により、ユーザーの情報への信頼度が高まり、AI技術がもたらす課題に効果的に対処できるようになることが期待されます。
モセリは、AI駆動の検索エンジンを信頼する前に、チャットボットが提供する情報の信頼性を確認する必要があると述べています。これは、投稿された声明や画像の出所を確認することに似ており、信頼できるアカウントからの情報だけがより信頼に値します。
モセリが説明したコンテンツ管理方法は、TwitterのコミュニティノートやYouTubeのコンテンツフィルターなど、ユーザー主導の審査システムにより近いです。Metaが同様の機能を導入するかどうかは現時点では不明ですが、同社が過去に他のプラットフォームの手法を参考にした経験があることを考えると、今後のコンテンツ管理ポリシーに注目が集まります。
要点:
🌐 ソーシャルメディアユーザーはAI生成コンテンツに警戒し、コンテンツの出所を確認しましょう。
🛡️ Instagramは、AI生成コンテンツにラベルを付け、ユーザーの背景情報を提供することに努めます。
🔍 Metaはコンテンツルールを大幅に変更し、情報の透明性と信頼性を高める計画です。