先日、オーストラリア上院特別委員会は、国家における人工知能(AI)の利用に関する調査報告書を発表し、OpenAI、Meta、Googleなどの大手テクノロジー企業が、大規模言語モデル(LLM)において多くの問題を抱えていると指摘しました。8ヶ月間にわたる調査で、グローバルなテクノロジー企業がオーストラリアのトレーニングデータの使用に関して透明性に欠けていることが明らかになり、その製品を新たな高リスクAI法規制の対象とするよう求めています。
画像出典:AI生成、画像ライセンス提供元Midjourney
特別委員会の調査範囲は広く、AIによる経済効果から潜在的な偏見や環境への影響まで網羅しています。報告書は、これらの大手テクノロジー企業が、汎用AIモデルの構造、開発、およびその影響に関して、深刻な透明性不足があると強調しています。委員会は、これらの企業の市場支配力、規制遵守からの逃避の記録、そしてオーストラリアの著作権保有者に対する明白な権利侵害について懸念を表明しています。さらに、報告書では、個人情報やプライバシー情報の非自発的な収集など、その他の問題にも触れています。
委員会はAI技術が経済生産性を向上させることを認めていますが、同時に、自動化によって多くの雇用が失われる可能性があると指摘しています。特に、教育や訓練の要求が低い職種、あるいは女性や低所得層への影響がより大きい可能性があると述べています。報告書では、職場におけるAIシステムの利用が、労働者の権利や労働条件に悪影響を与える可能性があると特に指摘しており、これらのシステムは多くの多国籍企業で既に利用されています。
これに対して、委員会はオーストラリア政府にいくつかの提言を行っています。労働者の権利に影響を与える高リスクAIアプリケーションを法的枠組みに明確に含めること、既存の労働衛生安全法を拡大してAIアプリケーションによる職場リスクに対応すること、そしてAI使用に関する意思決定において、雇用主と従業員の間で十分なコミュニケーションと協議を行うことを確保することです。
政府が即座に行動を起こす必要はないものの、報告書は、生産性の向上を追求する一方で、従業員の権利と労働条件を尊重するために、AI技術の適用において、ローカルのITリーダーがあらゆる側面の影響を包括的に考慮することを求めています。
要点:
🌐 大手テクノロジー企業はAIモデルの使用に関して透明性に欠けており、委員会はそれを高リスク製品として分類するよう求めています。
📉 自動化により、特に低スキル職や脆弱な立場の人々の雇用が大量に失われる可能性があります。
🤝 雇用主と従業員間の十分なコミュニケーションを促進し、AIの利用が労働者の権利を損なわないようにします。