9月25日,國家新一代人工智能治理專業委員會發布了《新一代人工智能倫理規范》(以下簡稱《倫理規范》),旨在將倫理道德融入人工智能全生命周期,為從事人工智能相關活動的自然人、法人和其他相關機構等提供倫理指引。
《倫理規范》經過專題調研、集中起草、意見征詢等環節,充分考慮當前社會各界有關隱私、偏見、歧視、公平等倫理關切,包括總則、特定活動倫理規范和組織實施等內容。
《倫理規范》提出了增進人類福祉、促進公平公正、保護隱私安全、確保可控可信、強化責任擔當、提升倫理素養等6項基本倫理要求。同時,提出人工智能管理、研發、供應、使用等特定活動的18項具體倫理要求。
為深入貫徹《新一代人工智能發展規劃》,細化落實《新一代人工智能治理原則》,增強全社會的人工智能倫理意識與行為自覺,積極引導負責任的人工智能研發與應用活動,促進人工智能健康發展,制定本規范。
第一條 本規范旨在將倫理道德融入人工智能全生命周期,促進公平、公正、和諧、安全,避免偏見、歧視、隱私和信息泄露等問題。
第二條 本規范適用于從事人工智能管理、研發、供應、使用等相關活動的自然人、法人和其他相關機構等。
(一)管理活動主要指人工智能相關的戰略規劃、政策法規和技術標準制定實施,資源配置以及監督審查等。
(二)研發活動主要指人工智能相關的科學研究、技術開發、產品研制等。
(三)供應活動主要指人工智能產品與服務相關的生產、運營、銷售等。
(四)使用活動主要指人工智能產品與服務相關的采購、消費、操作等。
(一)增進人類福祉。堅持以人為本,遵循人類共同價值觀,尊重人權和人類根本利益訴求,遵守國家或地區倫理道德。堅持公共利益優先,促進人機和諧友好,改善民生,增強獲得感幸福感,推動經濟、社會及生態可持續發展,共建人類命運共同體。
(二)促進公平公正。堅持普惠性和包容性,切實保護各相關主體合法權益,推動全社會公平共享人工智能帶來的益處,促進社會公平正義和機會均等。在提供人工智能產品和服務時,應充分尊重和幫助弱勢群體、特殊群體,并根據需要提供相應替代方案。
(三)保護隱私安全。充分尊重個人信息知情、同意等權利,依照合法、正當、必要和誠信原則處理個人信息,保障個人隱私與數據安全,不得損害個人合法數據權益,不得以竊取、篡改、泄露等方式非法收集利用個人信息,不得侵害個人隱私權。
(四)確保可控可信。保障人類擁有充分自主決策權,有權選擇是否接受人工智能提供的服務,有權隨時退出與人工智能的交互,有權隨時中止人工智能系統的運行,確保人工智能始終處于人類控制之下。
(五)強化責任擔當。堅持人類是最終責任主體,明確利益相關者的責任,全面增強責任意識,在人工智能全生命周期各環節自省自律,建立人工智能問責機制,不回避責任審查,不逃避應負責任。
(六)提升倫理素養。積極學習和普及人工智能倫理知識,客觀認識倫理問題,不低估不夸大倫理風險。主動開展或參與人工智能倫理問題討論,深入推動人工智能倫理治理實踐,提升應對能力。
第四條 人工智能特定活動應遵守的倫理規范包括管理規范、研發規范、供應規范和使用規范。
第五條 推動敏捷治理。尊重人工智能發展規律,充分認識人工智能的潛力與局限,持續優化治理機制和方式,在戰略決策、制度建設、資源配置過程中,不脫離實際、不急功近利,有序推動人工智能健康和可持續發展。
第六條 積極實踐示范。遵守人工智能相關法規、政策和標準,主動將人工智能倫理道德融入管理全過程,率先成為人工智能倫理治理的實踐者和推動者,及時總結推廣人工智能治理經驗,積極回應社會對人工智能的倫理關切。
第七條 正確行權用權。明確人工智能相關管理活動的職責和權力邊界,規范權力運行條件和程序。充分尊重并保障相關主體的隱私、自由、尊嚴、安全等權利及其他合法權益,禁止權力不當行使對自然人、法人和其他組織合法權益造成侵害。
第八條 加強風險防范。增強底線思維和風險意識,加強人工智能發展的潛在風險研判,及時開展系統的風險監測和評估,建立有效的風險預警機制,提升人工智能倫理風險管控和處置能力。
第九條 促進包容開放。充分重視人工智能各利益相關主體的權益與訴求,鼓勵應用多樣化的人工智能技術解決經濟社會發展實際問題,鼓勵跨學科、跨領域、跨地區、跨國界的交流與合作,推動形成具有廣泛共識的人工智能治理框架和標準規范。
第十條 強化自律意識。加強人工智能研發相關活動的自我約束,主動將人工智能倫理道德融入技術研發各環節,自覺開展自我審查,加強自我管理,不從事違背倫理道德的人工智能研發。
第十一條 提升數據質量。在數據收集、存儲、使用、加工、傳輸、提供、公開等環節,嚴格遵守數據相關法律、標準與規范,提升數據的完整性、及時性、一致性、規范性和準確性等。
第十二條 增強安全透明。在算法設計、實現、應用等環節,提升透明性、可解釋性、可理解性、可靠性、可控性,增強人工智能系統的韌性、自適應性和抗干擾能力,逐步實現可驗證、可審核、可監督、可追溯、可預測、可信賴。
第十三條 避免偏見歧視。在數據采集和算法開發中,加強倫理審查,充分考慮差異化訴求,避免可能存在的數據與算法偏見,努力實現人工智能系統的普惠性、公平性和非歧視性。
第十四條 尊重市場規則。嚴格遵守市場準入、競爭、交易等活動的各種規章制度,積極維護市場秩序,營造有利于人工智能發展的市場環境,不得以數據壟斷、平臺壟斷等破壞市場有序競爭,禁止以任何手段侵犯其他主體的知識產權。
第十五條 加強質量管控。強化人工智能產品與服務的質量監測和使用評估,避免因設計和產品缺陷等問題導致的人身安全、財產安全、用戶隱私等侵害,不得經營、銷售或提供不符合質量標準的產品與服務。
第十六條 保障用戶權益。在產品與服務中使用人工智能技術應明確告知用戶,應標識人工智能產品與服務的功能與局限,保障用戶知情、同意等權利。為用戶選擇使用或退出人工智能模式提供簡便易懂的解決方案,不得為用戶平等使用人工智能設置障礙。
第十七條 強化應急保障。研究制定應急機制和損失補償方案或措施,及時監測人工智能系統,及時響應和處理用戶的反饋信息,及時防范系統性故障,隨時準備協助相關主體依法依規對人工智能系統進行干預,減少損失,規避風險。
第十八條 提倡善意使用。加強人工智能產品與服務使用前的論證和評估,充分了解人工智能產品與服務帶來的益處,充分考慮各利益相關主體的合法權益,更好促進經濟繁榮、社會進步和可持續發展。
第十九條 避免誤用濫用。充分了解人工智能產品與服務的適用范圍和負面影響,切實尊重相關主體不使用人工智能產品或服務的權利,避免不當使用和濫用人工智能產品與服務,避免非故意造成對他人合法權益的損害。
第二十條 禁止違規惡用。禁止使用不符合法律法規、倫理道德和標準規范的人工智能產品與服務,禁止使用人工智能產品與服務從事不法活動,嚴禁危害國家安全、公共安全和生產安全,嚴禁損害社會公共利益等。
第二十一條 及時主動反饋。積極參與人工智能倫理治理實踐,對使用人工智能產品與服務過程中發現的技術安全漏洞、政策法規真空、監管滯后等問題,應及時向相關主體反饋,并協助解決。
第二十二條 提高使用能力。積極學習人工智能相關知識,主動掌握人工智能產品與服務的運營、維護、應急處置等各使用環節所需技能,確保人工智能產品與服務安全使用和高效利用。
第二十三條 本規范由國家新一代人工智能治理專業委員會發布,并負責解釋和指導實施。
第二十四條 各級管理部門、企業、高校、科研院所、協會學會和其他相關機構可依據本規范,結合實際需求,制訂更為具體的倫理規范和相關措施。
第二十五條 本規范自公布之日起施行,并根據經濟社會發展需求和人工智能發展情況適時修訂。
國家新一代人工智能治理專業委員會
2021年9月25日