中國發佈《新一代人工智慧倫理規範》 融入人工智慧全生命週期
中國國家新一代人工智慧治理專業委員會9月25日發佈《新一代人工智慧倫理規範》,旨在將倫理道德融入人工智慧全生命週期,為從事人工智慧相關活動的自然人、法人和其他相關機構等提供倫理指引。
同時,增強全社會的人工智慧倫理意識與行為自覺,積極引導負責任的人工智慧研發與應用活動,促進人工智慧健康發展。
《新一代人工智慧倫理規範》第一條即開宗明義:本規範旨在將倫理道德融入人工智慧全生命週期,促進公平、公正、和諧、安全,避免偏見、歧視、隱私和資訊洩露等問題。
該倫理規範明確提出,人工智慧各類活動應遵循增進人類福祉、促進公平公正、保護隱私安全、確保可控可信、強化責任擔當、提升倫理素養等六項基本倫理規範。
人工智慧特定活動應遵守的倫理規範包括管理規範、研發規範、供應規範和使用規範共18項具體倫理要求,管理規範包含推動敏捷治理、積極實踐示範、正確行權用權、加強風險防範、促進包容開放;研發規範包含強化自律意識、提升數據品質、增強安全透明、避免偏見歧視;供應規範包括尊重市場規則、加強品質管控、保障用戶權益、強化應急保障;使用規範包含提倡善意使用、避免誤用濫用、禁止違規惡用、及時主動反饋、提高使用能力。
其中,加強風險防範方面,增強底線思維和風險意識,加強人工智慧發展的潛在風險研判,及時開展系統的風險監測和評估,建立有效的風險預警機制,提升人工智慧倫理風險管控和處置能力。
保障用戶權益方面,在産品與服務中使用人工智慧技術應明確告知用戶,應標識人工智慧産品與服務的功能與局限,保障用戶知情、同意等權利。為用戶選擇使用或退出人工智慧模式提供簡便易懂的解決方案,不得為用戶平等使用人工智慧設置障礙。
組織實施上,《新一代人工智慧倫理規範》自公佈之日起施行,並根據經濟社會發展需求和人工智慧發展情況適時修訂。(記者 孫自法)