近日,工業和信息化部等十個部門聯合印發了《人工智能科技倫理審查與服務辦法(試行)》,爲我國的人工智能科技倫理審查與服務工作提供了詳細的指引。這一辦法的出臺,旨在規範和促進人工智能科技活動的倫理治理,確保科技活動的合規與安全。

《辦法》明確了人工智能科技倫理審查的適用範圍、實施主體以及工作程序。針對人工智能技術的特點,規定了申請與受理、審查程序、專家複覈等多個環節,確保審查工作有序進行。同時,辦法強調了科技倫理風險防控的重要性,鼓勵企業建設相應的倫理服務體系。

在支持措施方面,《辦法》從標準建設、服務體系、創新鼓勵、宣傳教育和人才培養等五個方面提出了具體的舉措,幫助企業提升科技倫理風險防控能力。此外,該辦法與現有的相關政策法規相協調,確保人工智能治理的有效性和一致性。

在審查程序方面,人工智能科技活動的負責人需向單位的倫理委員會或審查與服務中心提交申請,經過受理後,將按照不同的審查程序進行評估。重點審查領域包括人機融合系統、輿論引導能力的算法模型,以及具有高度自主能力的決策系統等。

《辦法》還對違反相關規定的行爲提出了明確的法律後果,將依據相關法律法規進行調查處理。這一系列措施的實施,將有助於更好地管理人工智能領域的倫理問題,促進科技發展與社會責任的協調。

劃重點:  

📝 《人工智能科技倫理審查與服務辦法(試行)》正式發佈,規範 AI 倫理治理。  

🔍 辦法明確審查程序和重點領域,確保科技活動的合規與安全。  

⚖️ 違反規定將依據法律法規進行處理,推動人工智能健康發展。