清华大学は近日、『清华大学人工知能教育応用指針(以下「指針」という)』を正式に発表しました。これは同校が初めて体系的に学校内における人工知能の使用について、全体的かつ場面ごとの規範と導きを提示するものであり、教育活動の中心である授業や学術研究などにわたってカバーしています。

ロボット AI 人工知能

「指針」は、「総則」「授業編」「修士論文および実践成果編」の3つの主要な部分から構成されています。そのうち「総則」では、人工知能時代において学校が「積極的で慎重な」基本的な立場を取ることを明確にし、「5つの核心原則」を提示しています:

  • 主体責任: AI は常に補助ツールであり、教師や生徒が授業と学習の主体です;

  • 合規性と誠実性: AI を使用する際には状況を明かさなければなりません。いかなる形の学術不正も厳禁です;

  • データセキュリティ: 敏感な、機密情報または許可されていないデータを用いて AI モデルを訓練または駆動することは禁止されます;

  • 慎重な思考と批判的分析: 多様なソースによる検証を奨励し、AI に依存することによって思考の惰性を生じさせないことが求められます;

  • 公平性と包括性: アルゴリズムのバイアスを主動的に識別・減少させ、デジタル格差に注意を払うことが求められます。

実際の授業応用において、「授業編」では教師がコースの目標に基づいて AI の使用方法を自主的に設計でき、コース開始時にルールを明示し、AI 生成コンテンツに対して関連する教育責任を負う必要があります。同時に、学生は AI を適切に活用して学習を補助することが奨励されますが、AI 生成コンテンツを直接宿題や成果として提出することは厳禁です。

大学院生を対象にした「修士論文および実践成果編」では、独自性と誠実性の規範をさらに強調し、AI を使って代筆、模倣、偽造行為を行うことを明確に禁止しています。指導教員は全過程の監督責任を負い、学術訓練の完全性を確保しなければなりません。