精品无人区无码乱码毛片国产_性做久久久久久免费观看_天堂中文在线资源_7777久久亚洲中文字幕

首頁 報(bào)告正文

聯(lián)合國教科文組織發(fā)布《人工智能倫理建議書》

  近日,聯(lián)合國教科文組織在法國巴黎發(fā)布了《人工智能倫理建議書》,這是全球首個(gè)針對人工智能倫理制定的規(guī)范框架。

  《人工智能倫理建議書》明確了規(guī)范人工智能技術(shù)的10大原則和11個(gè)行動(dòng)領(lǐng)域,是迄今為止全世界在政府層面達(dá)成的最廣泛的共識,是全球人工智能發(fā)展的共同綱領(lǐng),并將為進(jìn)一步形成人工智能有關(guān)的國際標(biāo)準(zhǔn)、國際法等提供強(qiáng)有力的參考。

  據(jù)悉,《人工智能倫理建議書》于2018年春季立項(xiàng),由全球遴選的24人專家團(tuán)撰寫,經(jīng)歷了193個(gè)成員國之間超過100小時(shí)的多邊談判修訂完成,于今年在聯(lián)合國教科文組織第41屆大會(huì)上獲得通過。

  建議書給出了一個(gè)人工智能的定義:

  “將人工智能系統(tǒng)視為有能力以類似于智能行為的方式處理數(shù)據(jù)和信息的系統(tǒng),通常包括推理、學(xué)習(xí)、感知、預(yù)測、規(guī)劃或控制等方面?!?/p>

  宗旨和目的

  該建議書旨在讓人工智能系統(tǒng)可以造福人類、個(gè)人、社會(huì)、環(huán)境和生態(tài)系統(tǒng),同時(shí)防止危害。它還旨在促進(jìn)和平利用人工智能系統(tǒng)。

  目的是在全球現(xiàn)有人工智能倫理框架之外,再提供一部全球公認(rèn)的規(guī)范性文書,不僅注重闡明價(jià)值觀和原則,而且著力于通過具體的政策建議切實(shí)落實(shí)這些價(jià)值觀和原則,同時(shí)著重強(qiáng)調(diào)包容、性別平等以及環(huán)境和生態(tài)系統(tǒng)保護(hù)等問題。

  并強(qiáng)調(diào)人工智能有關(guān)的倫理問題復(fù)雜性,需要多方合作、共同承擔(dān)責(zé)任。

《人工智能倫理問題建議書》草案文本

(注:已在聯(lián)合國教科文組織第41屆大會(huì)上獲得會(huì)員國通過)

序言

  聯(lián)合國教育、科學(xué)及文化組織(教科文組織)大會(huì)于2021年11月9日至24日在巴黎召開第四十一屆會(huì)議,

  認(rèn)識到人工智能(AI)從正負(fù)兩方面對社會(huì)、環(huán)境、生態(tài)系統(tǒng)和人類生活包括人類思想具有深刻而動(dòng)態(tài)的影響,部分原因在于人工智能的使用以新的方式影響著人類的思維、互動(dòng)和決策,并且波及到教育、人文科學(xué)、社會(huì)科學(xué)和自然科學(xué)、文化、傳播和信息,

  憶及教科文組織根據(jù)《組織法》,力求通過教育、科學(xué)、文化以及傳播和信息促進(jìn)各國間之合作,對和平與安全作出貢獻(xiàn),以增進(jìn)對正義、法治及所確認(rèn)之世界人民均享人權(quán)與基本自由之普遍尊重,

  深信在此提出的建議書,作為以國際法為依據(jù)、采用全球方法制定且注重人的尊嚴(yán)和人權(quán)以及性別平等、社會(huì)和經(jīng)濟(jì)正義與發(fā)展、身心健康、多樣性、互聯(lián)性、包容性、環(huán)境和生態(tài)系統(tǒng)保護(hù)的準(zhǔn)則性文書,可以引導(dǎo)人工智能技術(shù)向著負(fù)責(zé)任的方向發(fā)展,

  遵循《聯(lián)合國憲章》的宗旨和原則,

  考慮到人工智能技術(shù)可以對人類大有助益并惠及所有國家,但也會(huì)引發(fā)根本性的倫理關(guān)切,例如:人工智能技術(shù)可能內(nèi)嵌并加劇偏見,可能導(dǎo)致歧視、不平等、數(shù)字鴻溝和排斥,并對文化、社會(huì)和生物多樣性構(gòu)成威脅,造成社會(huì)或經(jīng)濟(jì)鴻溝;算法的工作方式和算法訓(xùn)練數(shù)據(jù)應(yīng)具有透明度和可理解性;人工智能技術(shù)對于多方面的潛在影響,包括但不限于人的尊嚴(yán)、人權(quán)和基本自由、性別平等、民主、社會(huì)、經(jīng)濟(jì)、政治和文化進(jìn)程、科學(xué)和工程實(shí)踐、動(dòng)物福利以及環(huán)境和生態(tài)系統(tǒng),

  又認(rèn)識到人工智能技術(shù)會(huì)加深世界各地國家內(nèi)部和國家之間現(xiàn)有的鴻溝和不平等,必須維護(hù)正義、信任和公平,以便在公平獲取人工智能技術(shù)、享受這些技術(shù)帶來的惠益和避免受其負(fù)面影響方面不讓任何國家和任何人掉隊(duì),同時(shí)認(rèn)識到各國國情不同,并尊重一部分人不參與所有技術(shù)發(fā)展的意愿,

  意識到所有國家都正值信息和通信技術(shù)及人工智能技術(shù)使用的加速期,對于媒體與信息素養(yǎng)的需求日益增長,且數(shù)字經(jīng)濟(jì)帶來了重大的社會(huì)、經(jīng)濟(jì)和環(huán)境挑戰(zhàn)以及惠益共享的機(jī)會(huì),對于中低收入國家(LMIC)——包括但不限于最不發(fā)達(dá)國家(LDC)、內(nèi)陸發(fā)展中國家(LLDC)和小島嶼發(fā)展中國家(SIDS)而言尤為如此,需要承認(rèn)、保護(hù)和促進(jìn)本土文化、價(jià)值觀和知識,以發(fā)展可持續(xù)的數(shù)字經(jīng)濟(jì),

  還認(rèn)識到人工智能技術(shù)具備有益于環(huán)境和生態(tài)系統(tǒng)的潛能,要實(shí)現(xiàn)這些惠益,不應(yīng)忽視而是要去應(yīng)對其對環(huán)境和生態(tài)系統(tǒng)的潛在危害和負(fù)面影響,

  注意到應(yīng)對風(fēng)險(xiǎn)和倫理關(guān)切的努力不應(yīng)妨礙創(chuàng)新和發(fā)展,而是應(yīng)提供新的機(jī)會(huì),激勵(lì)合乎倫理的研究和創(chuàng)新,使人工智能技術(shù)立足于人權(quán)和基本自由、價(jià)值觀和原則以及關(guān)于道義和倫理的思考,

  又憶及教科文組織大會(huì)在2019年11月第四十屆會(huì)議上通過了第40C/37號決議,授權(quán)總干事“以建議書的形式編制一份關(guān)于人工智能倫理問題的國際準(zhǔn)則性文書”,提交2021年大會(huì)第四十一屆會(huì)議,

  認(rèn)識到人工智能技術(shù)的發(fā)展需要相應(yīng)提高數(shù)據(jù)、媒體與信息素養(yǎng),并增加獲取獨(dú)立、多元、可信信息來源的機(jī)會(huì),包括努力減少錯(cuò)誤信息、虛假信息和仇恨言論的風(fēng)險(xiǎn)以及濫用個(gè)人數(shù)據(jù)造成的傷害,

  認(rèn)為關(guān)于人工智能技術(shù)及其社會(huì)影響的規(guī)范框架應(yīng)建立在共識和共同目標(biāo)的基礎(chǔ)上,以國際和國家法律框架、人權(quán)和基本自由、倫理、獲取數(shù)據(jù)、信息和知識的需求、研究和創(chuàng)新自由、人類福祉、環(huán)境和生態(tài)系統(tǒng)福祉為依據(jù),將倫理價(jià)值觀和原則與同人工智能技術(shù)有關(guān)的挑戰(zhàn)和機(jī)遇聯(lián)系起來,

  又認(rèn)識到倫理價(jià)值觀和原則可以通過發(fā)揮指引作用,幫助制定和實(shí)施基于權(quán)利的政策措施和法律規(guī)范,以期加快技術(shù)發(fā)展步伐,

  又深信全球公認(rèn)的、充分尊重國際法特別是人權(quán)法的人工智能技術(shù)倫理標(biāo)準(zhǔn)可以在世界各地制定人工智能相關(guān)規(guī)范方面起到關(guān)鍵作用,

  銘記《世界人權(quán)宣言》(1948年);國際人權(quán)框架文書,包括《關(guān)于難民地位的公約》(1951年)、《就業(yè)和職業(yè)歧視公約》(1958年)、《消除一切形式種族歧視國際公約》(1965年)、《公民及政治權(quán)利國際公約》(1966年)、《經(jīng)濟(jì)社會(huì)文化權(quán)利國際公約》(1966年)、《消除對婦女一切形式歧視公約》(1979年)、《兒童權(quán)利公約》(1989年)和《殘疾人權(quán)利公約》(2006年);《反對教育歧視公約》(1960年);《保護(hù)和促進(jìn)文化表現(xiàn)形式多樣性公約》(2005年);以及其他一切相關(guān)國際文書、建議書和宣言,又注意到《聯(lián)合國發(fā)展權(quán)利宣言》(1986年);《當(dāng)代人對后代人的責(zé)任宣言》(1997年);《世界生物倫理與人權(quán)宣言》(2005年);《聯(lián)合國土著人民權(quán)利宣言》(2007年);2014年聯(lián)合國大會(huì)關(guān)于信息社會(huì)世界峰會(huì)審查的決議(A/RES/70/125)(2015年);聯(lián)合國大會(huì)關(guān)于“變革我們的世界:2030年可持續(xù)發(fā)展議程”的決議(A/RES/70/1)(2015年);《關(guān)于保存和獲取包括數(shù)字遺產(chǎn)在內(nèi)的文獻(xiàn)遺產(chǎn)的建議書》(2015年);《與氣候變化有關(guān)的倫理原則宣言》(2017年);《關(guān)于科學(xué)和科學(xué)研究人員的建議書》(2017年);互聯(lián)網(wǎng)普遍性指標(biāo)(2018年獲得教科文組織國際傳播發(fā)展計(jì)劃認(rèn)可),包括立足人權(quán)、開放、人人可及和多利益攸關(guān)方參與原則(2015年獲得教科文組織大會(huì)認(rèn)可);人權(quán)理事會(huì)關(guān)于“數(shù)字時(shí)代的隱私權(quán)”的決議(A/HRC/RES/42/15)(2019年);以及人權(quán)理事會(huì)關(guān)于“新興數(shù)字技術(shù)與人權(quán)”的決議(A/HRC/RES/41/11)(2019年),

  強(qiáng)調(diào)必須特別關(guān)注中低收入國家,包括但不限于最不發(fā)達(dá)國家、內(nèi)陸發(fā)展中國家和小島嶼發(fā)展中國家,這些國家具備能力,但在人工智能倫理問題辯論中的代表性不足,由此引發(fā)了對于地方知識、文化多元化、價(jià)值體系以及應(yīng)對人工智能技術(shù)的正負(fù)兩方面影響需要實(shí)現(xiàn)全球公平的要求受到忽視的關(guān)切,

  又意識到在人工智能技術(shù)的倫理和監(jiān)管方面,目前存在許多國家政策以及由聯(lián)合國相關(guān)實(shí)體、政府間組織(包括地區(qū)組織)和由私營部門、專業(yè)組織、非政府組織和科學(xué)界制定的其他框架和倡議,

  還深信人工智能技術(shù)可以帶來重大惠益,但實(shí)現(xiàn)這些惠益也會(huì)加劇圍繞創(chuàng)新產(chǎn)生的矛盾沖突、知識和技術(shù)獲取不對稱(包括使公眾參與人工智能相關(guān)議題的能力受限的數(shù)字和公民素養(yǎng)赤字)以及信息獲取障礙、能力亦即人員和機(jī)構(gòu)能力差距、技術(shù)創(chuàng)新獲取障礙、缺乏適當(dāng)?shù)膶?shí)體和數(shù)字基礎(chǔ)設(shè)施以及監(jiān)管框架(包括與數(shù)據(jù)有關(guān)的基礎(chǔ)設(shè)施和監(jiān)管框架)的問題,所有這些問題都需要解決,

  強(qiáng)調(diào)需要加強(qiáng)全球合作與團(tuán)結(jié),包括通過多邊主義,以促進(jìn)公平獲取人工智能技術(shù),應(yīng)對人工智能技術(shù)給文化和倫理體系的多樣性和互聯(lián)性帶來的挑戰(zhàn),減少可能的濫用,充分發(fā)揮人工智能可能給各個(gè)領(lǐng)域特別是發(fā)展領(lǐng)域帶來的潛能,確保各國人工智能戰(zhàn)略以倫理原則為指導(dǎo),

  充分考慮到人工智能技術(shù)的快速發(fā)展對以合乎倫理的方式應(yīng)用和治理人工智能技術(shù)以及對尊重和保護(hù)文化多樣性提出了挑戰(zhàn),并有可能擾亂地方和地區(qū)的倫理標(biāo)準(zhǔn)和價(jià)值觀,

  1.通過本人工智能倫理問題建議書;

  2.建議會(huì)員國在自愿基礎(chǔ)上適用本建議書的各項(xiàng)規(guī)定,特別是根據(jù)各自國家的憲法實(shí)踐和治理結(jié)構(gòu)采取適當(dāng)步驟,包括必要的立法或其他措施,依照包括國際人權(quán)法在內(nèi)的國際法,使建議書的原則和規(guī)范在本國管轄范圍內(nèi)生效;

  3.又建議會(huì)員國動(dòng)員包括工商企業(yè)在內(nèi)的所有利益攸關(guān)方,確保他們在實(shí)施本建議書方面發(fā)揮各自的作用;并提請涉及人工智能技術(shù)的管理部門、機(jī)構(gòu)、研究和學(xué)術(shù)組織、公共、私營和民間社會(huì)機(jī)構(gòu)和組織注意本建議書,使人工智能技術(shù)的開發(fā)和應(yīng)用做到以健全的科學(xué)研究以及倫理分析和評估作為指導(dǎo)。

一、適用范圍

  1.本建議書述及與人工智能領(lǐng)域有關(guān)且屬于教科文組織職責(zé)范圍之內(nèi)的倫理問題。建議書以能指導(dǎo)社會(huì)負(fù)責(zé)任地應(yīng)對人工智能技術(shù)對人類、社會(huì)、環(huán)境和生態(tài)系統(tǒng)產(chǎn)生的已知和未知影響并相互依存的價(jià)值觀、原則和行動(dòng)構(gòu)成的不斷發(fā)展的整體、全面和多元文化框架為基礎(chǔ),將人工智能倫理作為一種系統(tǒng)性規(guī)范考量,并為社會(huì)接受或拒絕人工智能技術(shù)提供依據(jù)。

  建議書將倫理視為對人工智能技術(shù)進(jìn)行規(guī)范性評估和指導(dǎo)的動(dòng)態(tài)基礎(chǔ),以人的尊嚴(yán)、福祉和防止損害為導(dǎo)向,并立足于科技倫理。

  2.本建議書無意對人工智能作出唯一的定義,這種定義需要隨著技術(shù)的發(fā)展與時(shí)俱進(jìn)。

  建議書旨在探討人工智能系統(tǒng)中具有核心倫理意義的特征。因此,本建議書將人工智能系統(tǒng)視為有能力以類似于智能行為的方式處理數(shù)據(jù)和信息的系統(tǒng),通常包括推理、學(xué)習(xí)、感知、預(yù)測、規(guī)劃或控制等方面。這一方法有三個(gè)重要因素:

 ?。╝)人工智能系統(tǒng)是整合模型和算法的信息處理技術(shù),這些模型和算法能夠生成學(xué)習(xí)和執(zhí)行認(rèn)知任務(wù)的能力,從而在物質(zhì)環(huán)境和虛擬環(huán)境中實(shí)現(xiàn)預(yù)測和決策等結(jié)果。

  在設(shè)計(jì)上,人工智能系統(tǒng)借助知識建模和知識表達(dá),通過對數(shù)據(jù)的利用和對關(guān)聯(lián)性的計(jì)算,可以在不同程度上實(shí)現(xiàn)自主運(yùn)行。人工智能系統(tǒng)可以包含若干種方法,包括但不限于:

  (i)機(jī)器學(xué)習(xí),包括深度學(xué)習(xí)和強(qiáng)化學(xué)習(xí);

 ?。╥i)機(jī)器推理,包括規(guī)劃、調(diào)度、知識表達(dá)和推理、搜索和優(yōu)化。

  人工智能系統(tǒng)可用于信息物理系統(tǒng),包括物聯(lián)網(wǎng)、機(jī)器人系統(tǒng)、社交機(jī)器人和涉及控制、感知及處理傳感器所收集數(shù)據(jù)的人機(jī)交互以及人工智能系統(tǒng)工作環(huán)境中執(zhí)行器的操作。

 ?。╞)與人工智能系統(tǒng)有關(guān)的倫理問題涉及人工智能系統(tǒng)生命周期的各個(gè)階段,此處系指從研究、設(shè)計(jì)、開發(fā)到配置和使用等各階段,包括維護(hù)、運(yùn)行、交易、融資、監(jiān)測和評估、驗(yàn)證、使用終止、拆卸和終結(jié)。此外,人工智能行為者可以定義為在人工智能系統(tǒng)生命周期內(nèi)至少參與一個(gè)階段的任何行為者,可指自然人和法人,例如研究人員、程序員、工程師、數(shù)據(jù)科學(xué)家、終端用戶、工商企業(yè)、大學(xué)和公私實(shí)體等。

 ?。╟)人工智能系統(tǒng)引發(fā)了新型倫理問題,包括但不限于其對決策、就業(yè)和勞動(dòng)、社交、衛(wèi)生保健、教育、媒體、信息獲取、數(shù)字鴻溝、個(gè)人數(shù)據(jù)和消費(fèi)者保護(hù)、環(huán)境、民主、法治、安全和治安、雙重用途、人權(quán)和基本自由(包括表達(dá)自由、隱私和非歧視)的影響。此外,人工智能算法可能復(fù)制和加深現(xiàn)有的偏見,從而加劇已有的各種形式歧視、偏見和成見,由此產(chǎn)生新的倫理挑戰(zhàn)。其中一些問題與人工智能系統(tǒng)能夠完成此前只有生物才能完成、甚至在有些情況下只有人類才能完成的任務(wù)有關(guān)。這些特點(diǎn)使得人工智能系統(tǒng)在人類實(shí)踐和社會(huì)中以及在與環(huán)境和生態(tài)系統(tǒng)的關(guān)系中,可以起到意義深遠(yuǎn)的新作用,為兒童和青年的成長、培養(yǎng)對于世界和自身的認(rèn)識、批判性地認(rèn)識媒體和信息以及學(xué)會(huì)作出決定創(chuàng)造了新的環(huán)境。

  從長遠(yuǎn)看,人工智能系統(tǒng)可能挑戰(zhàn)人類特有的對于經(jīng)驗(yàn)和能動(dòng)作用的感知,在人類的自我認(rèn)知、社會(huì)、文化和環(huán)境的互動(dòng)、自主性、能動(dòng)性、價(jià)值和尊嚴(yán)等方面引發(fā)更多關(guān)切。

  3.秉承教科文組織世界科學(xué)知識與技術(shù)倫理委員會(huì)(COMEST)在2019年《人工智能倫理問題初步研究》中的分析,本建議書特別關(guān)注人工智能系統(tǒng)與教育、科學(xué)、文化、傳播和信息等教科文組織核心領(lǐng)域有關(guān)的廣泛倫理影響:

 ?。╝)教育,這是因?yàn)殍b于對勞動(dòng)力市場、就業(yè)能力和公民參與的影響,生活在數(shù)字化社會(huì)需要新的教育實(shí)踐、倫理反思、批判性思維、負(fù)責(zé)任的設(shè)計(jì)實(shí)踐和新的技能。

 ?。╞)科學(xué),系指最廣泛意義上的科學(xué),包括從自然科學(xué)、醫(yī)學(xué)到社會(huì)科學(xué)和人文科學(xué)等所有學(xué)術(shù)領(lǐng)域,這是由于人工智能技術(shù)帶來了新的研究能力和方法,影響到我們關(guān)于科學(xué)認(rèn)識和解釋的觀念,為決策創(chuàng)建了新的基礎(chǔ)。

  (c)文化特性和多樣性,這是由于人工智能技術(shù)可以豐富文化和創(chuàng)意產(chǎn)業(yè),但也會(huì)導(dǎo)致文化內(nèi)容的供應(yīng)、數(shù)據(jù)、市場和收入更多地集中在少數(shù)行為者手中,可能對語言、媒體、文化表現(xiàn)形式、參與和平等的多樣性和多元化產(chǎn)生負(fù)面影響。

 ?。╠)傳播和信息,這是由于人工智能技術(shù)在處理、組織和提供信息方面起到日益重要的作用;很多現(xiàn)象引發(fā)了與信息獲取、虛假信息、錯(cuò)誤信息、仇恨言論、新型社會(huì)敘事興起、歧視、表達(dá)自由、隱私、媒體與信息素養(yǎng)等有關(guān)的問題,自動(dòng)化新聞、通過算法提供新聞、對社交媒體和搜索引擎上的內(nèi)容進(jìn)行審核和策管只是其中幾個(gè)實(shí)例。

  4.本建議書面向會(huì)員國,會(huì)員國既是人工智能行為者,又是負(fù)責(zé)制定人工智能系統(tǒng)整個(gè)生命周期的法律和監(jiān)管框架并促進(jìn)企業(yè)責(zé)任的管理部門。此外,建議書為貫穿人工智能系統(tǒng)生命周期的倫理影響評估奠定了基礎(chǔ),從而為包括公共和私營部門在內(nèi)的所有人工智能行為者提供倫理指南。

二、宗旨和目標(biāo)

  5.本建議書旨在提供基礎(chǔ),讓人工智能系統(tǒng)可以造福人類、個(gè)人、社會(huì)、環(huán)境和生態(tài)系統(tǒng),同時(shí)防止危害。它還旨在促進(jìn)和平利用人工智能系統(tǒng)。

  6.本建議書的目的是在全球現(xiàn)有人工智能倫理框架之外,再提供一部全球公認(rèn)的規(guī)范性文書,不僅注重闡明價(jià)值觀和原則,而且著力于通過具體的政策建議切實(shí)落實(shí)這些價(jià)值觀和原則,同時(shí)著重強(qiáng)調(diào)包容、性別平等以及環(huán)境和生態(tài)系統(tǒng)保護(hù)等問題。

  7.由于與人工智能有關(guān)的倫理問題十分復(fù)雜,需要國際、地區(qū)和國家各個(gè)層面和各個(gè)部門的眾多利益攸關(guān)方開展合作,故而本建議書的宗旨是讓利益攸關(guān)方能夠在全球和文化間對話的基礎(chǔ)上共同承擔(dān)責(zé)任。

  8.本建議書的目標(biāo)如下:

 ?。╝)依照國際法,提供一個(gè)由價(jià)值觀、原則和行動(dòng)構(gòu)成的普遍框架,指導(dǎo)各國制定與人工智能有關(guān)的立法、政策或其他文書;

 ?。╞)指導(dǎo)個(gè)人、團(tuán)體、社群、機(jī)構(gòu)和私營公司的行動(dòng),確保將倫理規(guī)范嵌入人工智能系統(tǒng)生命周期的各個(gè)階段;

  (c)在人工智能系統(tǒng)生命周期的各個(gè)階段保護(hù)、促進(jìn)和尊重人權(quán)和基本自由、人的尊嚴(yán)和平等,包括性別平等;保障當(dāng)代和后代的利益;保護(hù)環(huán)境、生物多樣性和生態(tài)系統(tǒng);尊重文化多樣性;

 ?。╠)推動(dòng)多利益攸關(guān)方、多學(xué)科和多元化對話和建立共識,討論與人工智能系統(tǒng)有關(guān)的倫理問題;

 ?。╡)促進(jìn)對人工智能領(lǐng)域進(jìn)步和知識的公平獲取以及惠益共享,特別關(guān)注包括最不發(fā)達(dá)國家、內(nèi)陸發(fā)展中國家和小島嶼發(fā)展中國家在內(nèi)的中低收入國家的需求和貢獻(xiàn)。

三、價(jià)值觀和原則

  9.首先,人工智能系統(tǒng)生命周期的所有行為者都應(yīng)尊重下文所載的價(jià)值觀和原則,并在必要和適當(dāng)?shù)那闆r下,通過修訂現(xiàn)行的和制定新的法律、法規(guī)和業(yè)務(wù)準(zhǔn)則來促進(jìn)這些價(jià)值觀和原則。這必須遵守國際法,包括《聯(lián)合國憲章》和會(huì)員國的人權(quán)義務(wù),并應(yīng)符合國際商定的社會(huì)、政治、環(huán)境、教育、科學(xué)和經(jīng)濟(jì)可持續(xù)性目標(biāo),例如聯(lián)合國可持續(xù)發(fā)展目標(biāo)(SDG)。

  10.價(jià)值觀作為催人奮進(jìn)的理想,在制定政策措施和法律規(guī)范方面發(fā)揮著強(qiáng)大作用。下文概述的一系列價(jià)值觀可以激發(fā)理想的行為并是確立原則的基礎(chǔ),而原則更為具體地闡述作為其根本的價(jià)值觀,以便更易于在政策聲明和行動(dòng)中落實(shí)這些價(jià)值觀。

  11.下文概述的所有價(jià)值觀和原則本身都是可取的,但在任何實(shí)際情況下這些價(jià)值觀和原則之間都可能會(huì)有矛盾。在特定情況下,需要根據(jù)具體情況進(jìn)行評估以管控潛在的矛盾,同時(shí)考慮到相稱性原則并尊重人權(quán)和基本自由。在所有情況下,可能對人權(quán)和基本自由施加的任何限制均必須具有合法基礎(chǔ),而且必須合理、必要和相稱,符合各國依據(jù)國際法所承擔(dān)的義務(wù)。要做到明智而審慎地處理這些情況,通常需要與廣泛的相關(guān)利益攸關(guān)方合作,同時(shí)利用社會(huì)對話以及倫理審議、盡職調(diào)查和影響評估。

  12.人工智能系統(tǒng)生命周期的可信度和完整性對于確保人工智能技術(shù)造福人類、個(gè)人、社會(huì)、環(huán)境和生態(tài)系統(tǒng)并且體現(xiàn)出本建議書提出的價(jià)值觀和原則至關(guān)重要。在采取適當(dāng)措施降低風(fēng)險(xiǎn)時(shí),人們應(yīng)有充分理由相信人工智能系統(tǒng)能夠帶來個(gè)人利益和共享利益。具有可信度的一個(gè)基本必要條件是,人工智能系統(tǒng)在整個(gè)生命周期內(nèi)都受到相關(guān)利益攸關(guān)方適當(dāng)?shù)娜姹O(jiān)測。由于可信度是本文件所載各項(xiàng)原則得到落實(shí)的結(jié)果,本建議書提出的政策行動(dòng)建議均旨在提升人工智能系統(tǒng)生命周期各個(gè)階段的可信度。

  3.1價(jià)值觀

  【尊重、保護(hù)和促進(jìn)人權(quán)和基本自由以及人的尊嚴(yán)】

  13.每個(gè)人與生俱來且不可侵犯的尊嚴(yán)構(gòu)成了人權(quán)和基本自由這一普遍、不可分割、不可剝奪、相互依存又彼此相關(guān)的體系的基礎(chǔ)。因此,尊重、保護(hù)和促進(jìn)包括國際人權(quán)法在內(nèi)的國際法確立的人的尊嚴(yán)和權(quán)利,在人工智能系統(tǒng)的整個(gè)生命周期內(nèi)都至關(guān)重要。人的尊嚴(yán)系指承認(rèn)每個(gè)人固有和平等的價(jià)值,無論種族、膚色、血統(tǒng)、性別、年齡、語言、宗教、政治見解、民族、族裔、社會(huì)出身、與生俱來的經(jīng)濟(jì)或社會(huì)條件、殘障情況或其他狀況如何。

  14.在人工智能系統(tǒng)生命周期的任何階段,任何人或人類社群在身體、經(jīng)濟(jì)、社會(huì)、政治、文化或精神等任何方面,都不應(yīng)受到損害或被迫居于從屬地位。在人工智能系統(tǒng)的整個(gè)生命周期內(nèi),人類生活質(zhì)量都應(yīng)得到改善,而“生活質(zhì)量”的定義只要不侵犯或踐踏人權(quán)和基本自由或人的尊嚴(yán),應(yīng)由個(gè)人或群體來決定。

  15.在人工智能系統(tǒng)的整個(gè)生命周期內(nèi),人會(huì)與人工智能系統(tǒng)展開互動(dòng),接受這些系統(tǒng)提供的幫助,例如照顧弱勢者或處境脆弱群體,包括但不限于兒童、老年人、殘障人士或病人。

  在這一互動(dòng)過程中絕不應(yīng)將人物化,不應(yīng)以其他方式損害人的尊嚴(yán),也不應(yīng)侵犯或踐踏人權(quán)和基本自由。

  16.在人工智能系統(tǒng)的整個(gè)生命周期內(nèi),必須尊重、保護(hù)和促進(jìn)人權(quán)和基本自由。各國政府、私營部門、民間社會(huì)、國際組織、技術(shù)界和學(xué)術(shù)界在介入與人工智能系統(tǒng)生命周期有關(guān)的進(jìn)程時(shí),必須尊重人權(quán)文書和框架。新技術(shù)應(yīng)為倡導(dǎo)、捍衛(wèi)和行使人權(quán)提供新手段,而不是侵犯人權(quán)。

  【環(huán)境和生態(tài)系統(tǒng)蓬勃發(fā)展】

  17.應(yīng)在人工智能系統(tǒng)的整個(gè)生命周期內(nèi)確認(rèn)、保護(hù)和促進(jìn)環(huán)境和生態(tài)系統(tǒng)的蓬勃發(fā)展。

  此外,環(huán)境和生態(tài)系統(tǒng)是關(guān)乎人類和其他生物能否享受人工智能進(jìn)步所帶來惠益的必要條件。

  18.參與人工智能系統(tǒng)生命周期的所有行為者都必須遵守適用的國際法以及國內(nèi)立法、標(biāo)準(zhǔn)和慣例,例如旨在保護(hù)和恢復(fù)環(huán)境和生態(tài)系統(tǒng)以及促進(jìn)可持續(xù)發(fā)展的預(yù)防措施。這些行為者應(yīng)減少人工智能系統(tǒng)對環(huán)境的影響,包括但不限于碳足跡,以確保將氣候變化和環(huán)境風(fēng)險(xiǎn)因素降到最低,防止會(huì)加劇環(huán)境惡化和生態(tài)系統(tǒng)退化的對自然資源的不可持續(xù)開采、使用和轉(zhuǎn)化。

  【確保多樣性和包容性】

  19.在人工智能系統(tǒng)的整個(gè)生命周期內(nèi),應(yīng)依照包括人權(quán)法在內(nèi)的國際法,確保尊重、保護(hù)和促進(jìn)多樣性和包容性。為此,可以促進(jìn)所有個(gè)人或群體的積極參與,無論種族、膚色、血統(tǒng)、性別、年齡、語言、宗教、政治見解、民族、族裔、社會(huì)出身、與生俱來的經(jīng)濟(jì)或社會(huì)條件、殘障情況或其他狀況如何。

  20.對于生活方式的選擇范圍、信仰、意見、表達(dá)形式或個(gè)人經(jīng)驗(yàn),包括對于人工智能系統(tǒng)的任選使用以及這些架構(gòu)的共同設(shè)計(jì),在人工智能系統(tǒng)生命周期的任何階段都不應(yīng)受到限制。

  21.此外,應(yīng)作出努力,包括開展國際合作,以克服并絕不利用影響到社區(qū)的缺乏必要技術(shù)基礎(chǔ)設(shè)施、教育和技能以及法律框架的情況,特別是在中低收入國家、最不發(fā)達(dá)國家、內(nèi)陸發(fā)展中國家和小島嶼發(fā)展中國家中。

  【生活在和平、公正與互聯(lián)的社會(huì)中】

  22.人工智能行為者應(yīng)為確保建設(shè)和平與公正的社會(huì)發(fā)揮參與和促進(jìn)作用,這種社會(huì)的根基是惠及全民、符合人權(quán)和基本自由的相互關(guān)聯(lián)的未來。在和平與公正的社會(huì)中生活的價(jià)值觀表明,人工智能系統(tǒng)在整個(gè)生命周期內(nèi)都有可能為所有生物之間及其與自然環(huán)境之間的相互關(guān)聯(lián)作出貢獻(xiàn)。

  23.人與人之間相互聯(lián)系的概念是基于這樣一種認(rèn)識,即每個(gè)人都屬于一個(gè)更大的整體,當(dāng)這個(gè)整體中的組成部分都能夠繁榮興旺時(shí),整體才會(huì)蒸蒸日上。在和平、公正與互聯(lián)的社會(huì)中生活,需要一種有機(jī)、直接、出自本能的團(tuán)結(jié)紐帶,其特點(diǎn)是不懈地尋求和平關(guān)系,傾向于在最廣泛的意義上關(guān)愛他人和自然環(huán)境。

  24.這一價(jià)值觀要求在人工智能系統(tǒng)的整個(gè)生命周期內(nèi)促進(jìn)和平、包容與正義、公平和相互聯(lián)系,人工智能系統(tǒng)生命周期的各種進(jìn)程不得隔離或物化人類和社區(qū)或者削弱其自由、自主決策和安全,不得分裂個(gè)人和群體或使之相互對立,也不得威脅人類、其他生物和自然環(huán)境之間的共存。

  3.2原則

  【相稱性和不損害】

  25.應(yīng)該認(rèn)識到,人工智能技術(shù)本身并不一定能確保人類、環(huán)境和生態(tài)系統(tǒng)蓬勃發(fā)展。況且,與人工智能系統(tǒng)生命周期有關(guān)的任何進(jìn)程都不得超出實(shí)現(xiàn)合法目的或目標(biāo)所需的范圍,并應(yīng)切合具體情況。在有可能對人類、人權(quán)和基本自由、個(gè)別社區(qū)和整個(gè)社會(huì),或者對環(huán)境和生態(tài)系統(tǒng)造成損害時(shí),應(yīng)確保落實(shí)風(fēng)險(xiǎn)評估程序并采取措施,以防止發(fā)生此類損害。

  26.應(yīng)從以下方面證明選擇使用人工智能系統(tǒng)和選用哪種人工智能方法的合理性:(a)所選擇的人工智能方法對于實(shí)現(xiàn)特定合法目標(biāo)應(yīng)該是適當(dāng)?shù)暮拖喾Q的;(b)所選擇的人工智能方法不得違背本文件提出的基本價(jià)值觀,特別是其使用不得侵犯或踐踏人權(quán);(c)人工智能方法應(yīng)切合具體情況,并應(yīng)建立在嚴(yán)謹(jǐn)?shù)目茖W(xué)基礎(chǔ)上。在所涉決定具有不可逆轉(zhuǎn)或難以逆轉(zhuǎn)的影響或者在涉及生死抉擇的情況下,應(yīng)由人類作出最終決定。人工智能系統(tǒng)尤其不得用于社會(huì)評分或大規(guī)模監(jiān)控目的。

  【安全和安?!?/p>

  27.在人工智能系統(tǒng)的整個(gè)生命周期內(nèi),應(yīng)避免并解決、預(yù)防和消除意外傷害(安全風(fēng)險(xiǎn))以及易受攻擊的脆弱性(安保風(fēng)險(xiǎn)),確保人類、環(huán)境和生態(tài)系統(tǒng)的安全和安保。開發(fā)可持續(xù)和保護(hù)隱私的數(shù)據(jù)獲取框架,促進(jìn)利用優(yōu)質(zhì)數(shù)據(jù)更好地訓(xùn)練和驗(yàn)證人工智能模型,便可以實(shí)現(xiàn)有安全和安保保障的人工智能。

  【公平和非歧視】

  28.人工智能行為者應(yīng)根據(jù)國際法,促進(jìn)社會(huì)正義并保障一切形式的公平和非歧視。這意味著要采用包容性辦法確保人工智能技術(shù)的惠益人人可得可及,同時(shí)又考慮到不同年齡組、文化體系、不同語言群體、殘障人士、女童和婦女以及處境不利、邊緣化和弱勢群體或處境脆弱群體的具體需求。會(huì)員國應(yīng)努力讓包括地方社區(qū)在內(nèi)的所有人都能夠獲取提供本地相關(guān)內(nèi)容和服務(wù)且尊重多語言使用和文化多樣性的人工智能系統(tǒng)。會(huì)員國應(yīng)努力消除數(shù)字鴻溝,并確保對人工智能發(fā)展的包容性獲取和參與。在國家層面,會(huì)員國應(yīng)努力在人工智能系統(tǒng)生命周期的準(zhǔn)入和參與問題上促進(jìn)城鄉(xiāng)之間的公平,以及所有人之間的公平,無論種族、膚色、血統(tǒng)、性別、年齡、語言、宗教、政治見解、民族、族裔、社會(huì)出身、與生俱來的經(jīng)濟(jì)或社會(huì)條件、殘障情況或其他狀況如何。在國際層面,技術(shù)最先進(jìn)的國家有責(zé)任支持最落后的國家,確保共享人工智能技術(shù)的惠益,使得后者能夠進(jìn)入和參與人工智能系統(tǒng)生命周期,從而推動(dòng)建設(shè)一個(gè)在信息、傳播、文化、教育、研究、社會(huì)經(jīng)濟(jì)和政治穩(wěn)定方面更加公平的世界秩序。

  29.人工智能行為者應(yīng)盡一切合理努力,在人工智能系統(tǒng)的整個(gè)生命周期內(nèi)盡量減少和避免強(qiáng)化或固化帶有歧視性或偏見的應(yīng)用程序和結(jié)果,確保人工智能系統(tǒng)的公平。對于帶有歧視性和偏見的算法決定,應(yīng)提供有效的補(bǔ)救辦法。

  30.此外,在人工智能系統(tǒng)的整個(gè)生命周期內(nèi),需要解決國家內(nèi)部和國家之間的數(shù)字和知識鴻溝,包括根據(jù)相關(guān)的國家、地區(qū)和國際法律框架解決技術(shù)和數(shù)據(jù)獲取及獲取質(zhì)量方面的鴻溝,以及在連接性、知識和技能以及受影響社區(qū)的切實(shí)參與方面的鴻溝,以便讓每個(gè)人都得到公平待遇。

  【可持續(xù)性】

  31.可持續(xù)社會(huì)的發(fā)展,有賴于在人類、社會(huì)、文化、經(jīng)濟(jì)和環(huán)境等方面實(shí)現(xiàn)一系列復(fù)雜的目標(biāo)。人工智能技術(shù)的出現(xiàn)可能有利于可持續(xù)性目標(biāo),但也可能阻礙這些目標(biāo)的實(shí)現(xiàn),這取決于處在不同發(fā)展水平的國家如何應(yīng)用人工智能技術(shù)。因此,在就人工智能技術(shù)對人類、社會(huì)、文化、經(jīng)濟(jì)和環(huán)境的影響開展持續(xù)評估時(shí),應(yīng)充分考慮到人工智能技術(shù)對于作為一套涉及多方面的動(dòng)態(tài)目標(biāo)(例如目前在聯(lián)合國可持續(xù)發(fā)展目標(biāo)中認(rèn)定的目標(biāo))的可持續(xù)性的影響。

  【隱私權(quán)和數(shù)據(jù)保護(hù)】

  32.隱私權(quán)對于保護(hù)人的尊嚴(yán)、自主權(quán)和能動(dòng)性不可或缺,在人工智能系統(tǒng)的整個(gè)生命周期內(nèi)必須予以尊重、保護(hù)和促進(jìn)。重要的是,人工智能系統(tǒng)所用數(shù)據(jù)的收集、使用、共享、歸檔和刪除方式,必須符合國際法,契合本建議書提出的價(jià)值觀和原則,同時(shí)遵守相關(guān)的國家、地區(qū)和國際法律框架。

  33.應(yīng)在國家或國際層面采用多利益攸關(guān)方辦法,建立適當(dāng)?shù)臄?shù)據(jù)保護(hù)框架和治理機(jī)制,將其置于司法系統(tǒng)保護(hù)之下,并在人工智能系統(tǒng)的整個(gè)生命周期內(nèi)予以保障。數(shù)據(jù)保護(hù)框架和任何相關(guān)機(jī)制應(yīng)參鑒有關(guān)收集、使用和披露個(gè)人數(shù)據(jù)以及數(shù)據(jù)主體行使其權(quán)利的國際數(shù)據(jù)保護(hù)原則和標(biāo)準(zhǔn),同時(shí)確保對個(gè)人數(shù)據(jù)的處理具有合法的目的和有效的法律依據(jù),包括取得知情同意。

  34.需要對算法系統(tǒng)開展充分的隱私影響評估,其中包括使用算法系統(tǒng)的社會(huì)和倫理考量以及通過設(shè)計(jì)方法對于隱私的創(chuàng)新使用。人工智能行為者需要確保他們對人工智能系統(tǒng)的設(shè)計(jì)和實(shí)施負(fù)責(zé),以確保個(gè)人信息在人工智能系統(tǒng)的整個(gè)生命周期內(nèi)受到保護(hù)。

  【人類的監(jiān)督和決定】

  35.會(huì)員國應(yīng)確保始終有可能將人工智能系統(tǒng)生命周期的任何階段以及與人工智能系統(tǒng)有關(guān)的補(bǔ)救措施的倫理和法律責(zé)任歸屬于自然人或現(xiàn)有法人實(shí)體。因此,人類監(jiān)督不僅指個(gè)人監(jiān)督,在適當(dāng)情況下也指范圍廣泛的公共監(jiān)督。

  36.在某些情況下,出于效率性的考慮,人類有時(shí)選擇依賴人工智能系統(tǒng),但是否在有限情形下出讓控制權(quán)依然要由人類來決定,這是由于人類在決策和行動(dòng)上可以借助人工智能系統(tǒng),但人工智能系統(tǒng)永遠(yuǎn)無法取代人類的最終責(zé)任和問責(zé)。一般而言,生死攸關(guān)的決定不應(yīng)讓給人工智能系統(tǒng)來作。

  【透明度和可解釋性】

  37.人工智能系統(tǒng)的透明度和可解釋性往往是確保人權(quán)、基本自由和倫理原則得到尊重、保護(hù)和促進(jìn)的必要先決條件。透明度是相關(guān)國家和國際責(zé)任制度有效運(yùn)作的必要因素。缺乏透明度還可能削弱對根據(jù)人工智能系統(tǒng)產(chǎn)生的結(jié)果所作決定提出有效質(zhì)疑的可能性,進(jìn)而可能侵犯獲得公平審判和有效補(bǔ)救的權(quán)利,并限制這些系統(tǒng)的合法使用領(lǐng)域。

  38.在人工智能系統(tǒng)的整個(gè)生命周期內(nèi)都需要努力提高人工智能系統(tǒng)(包括那些具有域外影響的系統(tǒng))的透明度和可解釋性,以支持民主治理,但透明度和可解釋性的程度應(yīng)始終切合具體情況并與其影響相當(dāng),因?yàn)榭赡苄枰谕该鞫群涂山忉屝耘c隱私、安全和安保等其他原則之間取得平衡。在所涉決定系參考或依據(jù)人工智能算法作出的情況下,包括在所涉決定關(guān)乎民眾安全和人權(quán)的情況下,民眾應(yīng)該被充分告知,并且在此類情況下有機(jī)會(huì)請求相關(guān)人工智能行為者或公共機(jī)構(gòu)提供解釋性信息。此外,對于影響其權(quán)利和自由的決定,個(gè)人應(yīng)能夠了解據(jù)以作出該決定的理由,并可以選擇向能夠?qū)彶楹图m正該決定的私營公司或公共機(jī)構(gòu)指定工作人員提出意見。對于由人工智能系統(tǒng)直接提供或協(xié)助提供的產(chǎn)品或服務(wù),人工智能行為者應(yīng)以適當(dāng)和及時(shí)的方式告知用戶。

  39.從社會(huì)—技術(shù)角度來看,提高透明度有助于建設(shè)更加和平、公正、民主和包容的社會(huì)。提高透明度有利于開展公眾監(jiān)督,這可以減少腐敗和歧視,還有助于發(fā)現(xiàn)和防止對人權(quán)產(chǎn)生的負(fù)面影響。透明度的目的是為相關(guān)對象提供適當(dāng)?shù)男畔?,以便他們理解和增進(jìn)信任。具體到人工智能系統(tǒng),透明度可以幫助人們了解人工智能系統(tǒng)各個(gè)階段是如何按照該系統(tǒng)的具體環(huán)境和敏感度設(shè)定的。透明度還包括深入了解可以影響特定預(yù)測或決定的因素,以及了解是否具備適當(dāng)?shù)谋WC(例如安全或公平措施)。在存在會(huì)對人權(quán)產(chǎn)生不利影響的嚴(yán)重威脅的情況下,透明度要求可能還包括共享代碼或數(shù)據(jù)集。

  40.可解釋性是指讓人工智能系統(tǒng)的結(jié)果可以理解,并提供闡釋說明。人工智能系統(tǒng)的可解釋性也指各個(gè)算法模塊的輸入、輸出和性能的可解釋性及其如何促成系統(tǒng)結(jié)果。因此,可解釋性與透明度密切相關(guān),結(jié)果和導(dǎo)致結(jié)果的子過程應(yīng)以可理解和可追溯為目標(biāo),并且應(yīng)切合具體情況。人工智能行為者應(yīng)致力于確保開發(fā)出的算法是可以解釋的。就對終端用戶所產(chǎn)生的影響不是暫時(shí)的、容易逆轉(zhuǎn)的或低風(fēng)險(xiǎn)的人工智能應(yīng)用程序而言,應(yīng)確保對導(dǎo)致所采取行動(dòng)的任何決定作出有意義的解釋,以便使這一結(jié)果被認(rèn)為是透明的。

  41.透明度和可解釋性與適當(dāng)?shù)呢?zé)任和問責(zé)措施以及人工智能系統(tǒng)的可信度密切相關(guān)。

  【責(zé)任和問責(zé)】

  42.人工智能行為者和會(huì)員國應(yīng)根據(jù)國家法律和國際法,特別是會(huì)員國的人權(quán)義務(wù),以及人工智能系統(tǒng)整個(gè)生命周期的倫理準(zhǔn)則,包括在涉及其有效疆域和實(shí)際控制范圍內(nèi)的人工智能行為者方面,尊重、保護(hù)和促進(jìn)人權(quán)和基本自由,并且還應(yīng)促進(jìn)對環(huán)境和生態(tài)系統(tǒng)的保護(hù),同時(shí)承擔(dān)各自的倫理和法律責(zé)任。以任何方式基于人工智能系統(tǒng)作出的決定和行動(dòng),其倫理責(zé)任和義務(wù)最終都應(yīng)由人工智能行為者根據(jù)其在人工智能系統(tǒng)生命周期中的作用來承擔(dān)。

  43.應(yīng)建立適當(dāng)?shù)谋O(jiān)督、影響評估、審計(jì)和盡職調(diào)查機(jī)制,包括保護(hù)舉報(bào)者,確保在人工智能系統(tǒng)的整個(gè)生命周期內(nèi)對人工智能系統(tǒng)及其影響實(shí)施問責(zé)。技術(shù)和體制方面的設(shè)計(jì)都應(yīng)確保人工智能系統(tǒng)(的運(yùn)行)可審計(jì)和可追溯,特別是要應(yīng)對與人權(quán)規(guī)范和標(biāo)準(zhǔn)之間的沖突以及對環(huán)境和生態(tài)系統(tǒng)福祉的威脅。

  【認(rèn)識和素養(yǎng)】

  44.應(yīng)通過由政府、政府間組織、民間社會(huì)、學(xué)術(shù)界、媒體、社區(qū)領(lǐng)袖和私營部門共同領(lǐng)導(dǎo)并顧及現(xiàn)有的語言、社會(huì)和文化多樣性的開放且可獲取的教育、公民參與、數(shù)字技能和人工智能倫理問題培訓(xùn)、媒體與信息素養(yǎng)及培訓(xùn),促進(jìn)公眾對于人工智能技術(shù)和數(shù)據(jù)價(jià)值的認(rèn)識和理解,確保公眾的有效參與,讓所有社會(huì)成員都能夠就使用人工智能系統(tǒng)作出知情決定,避免受到不當(dāng)影響。

  45.了解人工智能系統(tǒng)的影響,應(yīng)包括了解、借助以及促進(jìn)人權(quán)和基本自由。這意味著在接觸和理解人工智能系統(tǒng)之前,應(yīng)首先了解人工智能系統(tǒng)對人權(quán)和權(quán)利獲取的影響,以及對環(huán)境和生態(tài)系統(tǒng)的影響。

  46.對數(shù)據(jù)的使用必須尊重國際法和國家主權(quán)。這意味著各國可根據(jù)國際法,對在其境內(nèi)生成或經(jīng)過其國境的數(shù)據(jù)進(jìn)行監(jiān)管,并采取措施,力爭在依照國際法尊重隱私權(quán)以及其他人權(quán)規(guī)范和標(biāo)準(zhǔn)的基礎(chǔ)上對數(shù)據(jù)進(jìn)行有效監(jiān)管,包括數(shù)據(jù)保護(hù)。

  47.不同利益攸關(guān)方對人工智能系統(tǒng)整個(gè)生命周期的參與,是采取包容性辦法開展人工智能治理、使惠益能夠?yàn)樗腥斯蚕硪约巴苿?dòng)可持續(xù)發(fā)展的必要因素。利益攸關(guān)方包括但不限于政府、政府間組織、技術(shù)界、民間社會(huì)、研究人員和學(xué)術(shù)界、媒體、教育、政策制定者、私營公司、人權(quán)機(jī)構(gòu)和平等機(jī)構(gòu)、反歧視監(jiān)測機(jī)構(gòu)以及青年和兒童團(tuán)體。應(yīng)采用開放標(biāo)準(zhǔn)和互操作性原則,以促進(jìn)協(xié)作。應(yīng)采取措施,兼顧技術(shù)的變化和新利益攸關(guān)方群體的出現(xiàn),并便于邊緣化群體、社區(qū)和個(gè)人切實(shí)參與,同時(shí)酌情尊重土著人民對其數(shù)據(jù)的自我管理。

四、政策行動(dòng)領(lǐng)域

  48.以下政策領(lǐng)域所述的政策行動(dòng)是對本建議書提出的價(jià)值觀和原則的具體落實(shí)。主要行動(dòng)是會(huì)員國出臺有效措施,包括政策框架或機(jī)制等,并通過開展多種行動(dòng),例如鼓勵(lì)所有利益攸關(guān)方根據(jù)包括聯(lián)合國《工商企業(yè)與人權(quán)指導(dǎo)原則》在內(nèi)的準(zhǔn)則制定人權(quán)、法治、民主以及倫理影響評估和盡職調(diào)查工具,確保私營公司、學(xué)術(shù)和研究機(jī)構(gòu)以及民間社會(huì)等其他利益攸關(guān)方遵守這些框架或機(jī)制。此類政策或機(jī)制的制定過程應(yīng)包括所有利益攸關(guān)方并應(yīng)考慮到各會(huì)員國的具體情況和優(yōu)先事項(xiàng)。教科文組織可以作為合作伙伴,支持會(huì)員國制定、監(jiān)測和評估政策機(jī)制。

  49.教科文組織認(rèn)識到,各會(huì)員國在科學(xué)、技術(shù)、經(jīng)濟(jì)、教育、法律、規(guī)范、基礎(chǔ)設(shè)施、社會(huì)、文化和其他方面,處于實(shí)施本建議書的不同準(zhǔn)備階段。需要指出的是,這里的“準(zhǔn)備”是一種動(dòng)態(tài)。因此,為切實(shí)落實(shí)本建議書,教科文組織將:(1)制定準(zhǔn)備狀態(tài)評估方法,協(xié)助有關(guān)會(huì)員國確定其準(zhǔn)備進(jìn)程各個(gè)方面在特定時(shí)刻的所處狀態(tài);(2)確保支持有關(guān)會(huì)員國制定教科文組織人工智能技術(shù)倫理影響評估(EIA)方法,分享最佳做法、評估準(zhǔn)則、其他機(jī)制和分析工作。

  【政策領(lǐng)域1:倫理影響評估】

  50.會(huì)員國應(yīng)出臺影響評估(例如倫理影響評估)框架,以確定和評估人工智能系統(tǒng)的惠益、關(guān)切和風(fēng)險(xiǎn),并酌情出臺預(yù)防、減輕和監(jiān)測風(fēng)險(xiǎn)的措施以及其他保障機(jī)制。此種影響評估應(yīng)根據(jù)本建議書提出的價(jià)值觀和原則,確定對人權(quán)和基本自由(特別是但不限于邊緣化和弱勢群體或處境脆弱群體的權(quán)利、勞工權(quán)利)、環(huán)境和生態(tài)系統(tǒng)產(chǎn)生的影響以及倫理和社會(huì)影響,并促進(jìn)公民參與。

  51.會(huì)員國和私營公司應(yīng)建立盡職調(diào)查和監(jiān)督機(jī)制,以確定、防止和減輕人工智能系統(tǒng)對尊重人權(quán)、法治和包容性社會(huì)產(chǎn)生的影響,并說明如何處理這些影響。會(huì)員國還應(yīng)能夠評估人工智能系統(tǒng)對貧困問題產(chǎn)生的社會(huì)經(jīng)濟(jì)影響,確保人工智能技術(shù)在目前和未來的大規(guī)模應(yīng)用不會(huì)加劇各國之間以及國內(nèi)的貧富差距和數(shù)字鴻溝。為做到這一點(diǎn),尤其應(yīng)針對信息(包括私營實(shí)體掌握的涉及公共利益的信息)獲取,實(shí)行可強(qiáng)制執(zhí)行的透明度協(xié)議。會(huì)員國、私營公司和民間社會(huì)應(yīng)調(diào)查基于人工智能的建議對人類決策自主權(quán)的社會(huì)學(xué)和心理學(xué)影響。對于經(jīng)確認(rèn)對人權(quán)構(gòu)成潛在風(fēng)險(xiǎn)的人工智能系統(tǒng),在投放市場之前,人工智能行為者應(yīng)對其進(jìn)行廣泛測試,包括必要時(shí),作為倫理影響評估的一部分,在真實(shí)世界的條件下進(jìn)行測試。

  52.會(huì)員國和工商企業(yè)應(yīng)采取適當(dāng)措施,監(jiān)測人工智能系統(tǒng)生命周期的各個(gè)階段,包括用于決策的算法的性能、數(shù)據(jù)以及參與這一過程的人工智能行為者,特別是在公共服務(wù)領(lǐng)域和需要與終端用戶直接互動(dòng)的領(lǐng)域,以配合開展倫理影響評估。人工智能系統(tǒng)評估的倫理方面應(yīng)包含會(huì)員國的人權(quán)法義務(wù)。

  53.各國政府應(yīng)采用監(jiān)管框架,其中特別針對公共管理部門提出人工智能系統(tǒng)倫理影響評估程序,以預(yù)測后果,減少風(fēng)險(xiǎn),避免有害后果,促進(jìn)公民參與并應(yīng)對社會(huì)挑戰(zhàn)。評估還應(yīng)確立能夠?qū)λ惴?、?shù)據(jù)和設(shè)計(jì)流程加以評估并包括對人工智能系統(tǒng)的外部審查的適當(dāng)監(jiān)督機(jī)制,包括確定可審計(jì)性、可追溯性和可解釋性。倫理影響評估應(yīng)透明,并酌情向公眾開放。

  此類評估還應(yīng)具備多學(xué)科、多利益攸關(guān)方、多文化、多元化和包容等特性。應(yīng)要求公共管理部門引入適當(dāng)?shù)臋C(jī)制和工具,監(jiān)測這些部門實(shí)施和/或部署的人工智能系統(tǒng)。

  【政策領(lǐng)域 2:倫理治理和管理】

  54.會(huì)員國應(yīng)確保人工智能治理機(jī)制具備包容性、透明性、多學(xué)科、多邊(包括跨界減輕損害和作出補(bǔ)救的可能性)和多利益攸關(guān)方等特性。特別是,治理應(yīng)包括預(yù)測、有效保護(hù)、監(jiān)測影響、執(zhí)行和補(bǔ)救等方面。

  55.會(huì)員國應(yīng)通過實(shí)施有力的執(zhí)行機(jī)制和補(bǔ)救行動(dòng),確保調(diào)查并補(bǔ)救人工智能系統(tǒng)造成的損害,從而確保人權(quán)和基本自由以及法治在數(shù)字世界與現(xiàn)實(shí)世界中同樣得到尊重。此類機(jī)制和行動(dòng)應(yīng)包括私營公司和公營公司提供的補(bǔ)救機(jī)制。為此,應(yīng)提升人工智能系統(tǒng)的可審計(jì)性和可追溯性。此外,會(huì)員國應(yīng)加強(qiáng)履行這項(xiàng)承諾的機(jī)構(gòu)能力,并應(yīng)與研究人員和其他利益攸關(guān)方合作調(diào)查、防止并減少對于人工智能系統(tǒng)的潛在惡意使用。

  56.鼓勵(lì)會(huì)員國根據(jù)應(yīng)用領(lǐng)域的敏感程度、對人權(quán)、環(huán)境和生態(tài)系統(tǒng)的預(yù)期影響以及本建議書提出的其他倫理考量,制定國家和地區(qū)人工智能戰(zhàn)略,并考慮多種形式的柔性治理,例如人工智能系統(tǒng)認(rèn)證機(jī)制和此類認(rèn)證的相互承認(rèn)。此類機(jī)制可以包括針對系統(tǒng)、數(shù)據(jù)以及倫理準(zhǔn)則和倫理方面的程序要求的遵守情況開展不同層面的審計(jì)。另一方面,此類機(jī)制不得因行政負(fù)擔(dān)過重而妨礙創(chuàng)新,或者讓中小企業(yè)或初創(chuàng)企業(yè)、民間社會(huì)以及研究和科學(xué)組織處于不利地位。此類機(jī)制還應(yīng)包括定期監(jiān)測,在人工智能系統(tǒng)的整個(gè)生命周期內(nèi)確保系統(tǒng)的穩(wěn)健性、持續(xù)完整性和遵守倫理準(zhǔn)則,必要時(shí)可要求重新認(rèn)證。

  57.會(huì)員國和公共管理部門應(yīng)對現(xiàn)有和擬議的人工智能系統(tǒng)進(jìn)行透明的自我評估,其中尤其應(yīng)包括對采用人工智能是否適當(dāng)進(jìn)行評估,如果適當(dāng)則應(yīng)為確定適當(dāng)?shù)姆椒ㄩ_展進(jìn)一步評估,并評估采用這種方法是否會(huì)導(dǎo)致違反或?yàn)E用會(huì)員國的人權(quán)法義務(wù),如果是則應(yīng)禁止采用。

  58.會(huì)員國應(yīng)鼓勵(lì)公共實(shí)體、私營公司和民間社會(huì)組織讓不同利益攸關(guān)方參與其人工智能治理工作,并考慮增設(shè)獨(dú)立的人工智能倫理干事崗位或某種其他機(jī)制,負(fù)責(zé)監(jiān)督倫理影響評估、審計(jì)和持續(xù)監(jiān)測工作,確保對于人工智能系統(tǒng)的倫理指導(dǎo)。鼓勵(lì)會(huì)員國、私營公司和民間社會(huì)組織在教科文組織的支持下,創(chuàng)設(shè)獨(dú)立的人工智能倫理干事網(wǎng)絡(luò),為國家、地區(qū)和國際層面的這一進(jìn)程提供支持。

  59.會(huì)員國應(yīng)促進(jìn)數(shù)字生態(tài)系統(tǒng)的發(fā)展和獲取,以便在國家層面以合乎倫理和包容各方的方式發(fā)展人工智能系統(tǒng),包括消除在人工智能系統(tǒng)生命周期準(zhǔn)入方面的差距,同時(shí)推動(dòng)國際合作。此類生態(tài)系統(tǒng)尤其包括數(shù)字技術(shù)和基礎(chǔ)設(shè)施,在適當(dāng)情況下還包括人工智能知識共享機(jī)制。

  60.會(huì)員國應(yīng)與國際組織、跨國公司、學(xué)術(shù)機(jī)構(gòu)和民間社會(huì)合作建立機(jī)制,確保所有會(huì)員國積極參與關(guān)于人工智能治理的國際討論,特別是中低收入國家,尤其是最不發(fā)達(dá)國家、內(nèi)陸發(fā)展中國家和小島嶼發(fā)展中國家??梢酝ㄟ^提供資金、確保平等的地區(qū)參與或任何其他機(jī)制來實(shí)現(xiàn)這一目標(biāo)。此外,為確保人工智能論壇的包容性,會(huì)員國應(yīng)為人工智能行為者的出入境提供便利,特別是中低收入國家,尤其是最不發(fā)達(dá)國家、內(nèi)陸發(fā)展中國家和小島嶼發(fā)展中國家的行為者,以便其參加此類論壇。

  61.修訂現(xiàn)行的或制定新的有關(guān)人工智能系統(tǒng)的國家立法,必須遵守會(huì)員國的人權(quán)法義務(wù),并在人工智能系統(tǒng)的整個(gè)生命周期內(nèi)促進(jìn)人權(quán)和基本自由。隨著人工智能技術(shù)的發(fā)展,還應(yīng)采取以下形式促進(jìn)人權(quán)和基本自由:治理舉措;關(guān)于人工智能系統(tǒng)的合作實(shí)踐的良好范例;

  國家及國際技術(shù)和方法準(zhǔn)則。包括私營部門在內(nèi)的各個(gè)部門在其關(guān)于人工智能系統(tǒng)的實(shí)踐中必須利用現(xiàn)有的和新的文書以及本建議書,尊重、保護(hù)和促進(jìn)人權(quán)和基本自由。

  62.為執(zhí)法、福利、就業(yè)、媒體和信息提供者、衛(wèi)生保健和獨(dú)立司法系統(tǒng)等對人權(quán)敏感的用途獲取人工智能系統(tǒng)的會(huì)員國應(yīng)建立機(jī)制,由獨(dú)立的數(shù)據(jù)保護(hù)機(jī)關(guān)、行業(yè)監(jiān)督機(jī)構(gòu)和負(fù)責(zé)監(jiān)督的公共機(jī)構(gòu)等適當(dāng)監(jiān)督部門監(jiān)測人工智能系統(tǒng)的社會(huì)和經(jīng)濟(jì)影響。

  63.會(huì)員國應(yīng)增強(qiáng)司法機(jī)構(gòu)根據(jù)法治以及國際法和國際標(biāo)準(zhǔn)作出與人工智能系統(tǒng)有關(guān)決定(包括在其審議中使用人工智能系統(tǒng)的決定)的能力,同時(shí)確保堅(jiān)持人類監(jiān)督原則。司法機(jī)關(guān)如若使用人工智能系統(tǒng),則需要有足夠的保障措施,尤其要保障對基本人權(quán)的保護(hù)、法治、司法獨(dú)立以及人類監(jiān)督原則,并確保司法機(jī)關(guān)對人工智能系統(tǒng)的開發(fā)和使用值得信賴、以公共利益為導(dǎo)向且以人為本。

  64.會(huì)員國應(yīng)確保政府和多邊組織在保障人工智能系統(tǒng)的安全和安保方面起到主導(dǎo)作用,并吸收多利益攸關(guān)方參與其中。具體而言,會(huì)員國、國際組織和其他相關(guān)機(jī)構(gòu)應(yīng)制定國際標(biāo)準(zhǔn),列出可衡量和可檢測的安全和透明度等級,以便能夠客觀評估人工智能系統(tǒng)并確定合規(guī)水平。此外,會(huì)員國和工商企業(yè)應(yīng)對人工智能技術(shù)潛在安全和安保風(fēng)險(xiǎn)的戰(zhàn)略研究提供持續(xù)支持,并應(yīng)鼓勵(lì)透明度、可解釋性、包容和素養(yǎng)問題研究,在不同方面和不同層面(例如技術(shù)語言和自然語言)為這些領(lǐng)域投入更多資金。

  65.會(huì)員國應(yīng)實(shí)施政策,在人工智能系統(tǒng)的整個(gè)生命周期內(nèi)確保人工智能行為者的行動(dòng)符合國際人權(quán)法、標(biāo)準(zhǔn)和原則,同時(shí)充分考慮到當(dāng)前的文化和社會(huì)多樣性,包括地方習(xí)俗和宗教傳統(tǒng),并適當(dāng)考慮到人權(quán)的優(yōu)先性和普遍性。

  66.會(huì)員國應(yīng)建立機(jī)制,要求人工智能行為者披露并打擊人工智能系統(tǒng)結(jié)果和數(shù)據(jù)中任何類型的陳規(guī)定型觀念,無論是設(shè)計(jì)使然還是出于疏忽,確保人工智能系統(tǒng)的訓(xùn)練數(shù)據(jù)集不會(huì)助長文化、經(jīng)濟(jì)或社會(huì)不平等和偏見,不會(huì)散播虛假信息和錯(cuò)誤信息,也不會(huì)干擾表達(dá)自由和信息獲取。應(yīng)特別關(guān)注數(shù)據(jù)匱乏地區(qū)。

  67.會(huì)員國應(yīng)實(shí)施政策,促進(jìn)并提高人工智能開發(fā)團(tuán)隊(duì)和訓(xùn)練數(shù)據(jù)集的多樣性和包容性,以反映其人口狀況,確保人工智能技術(shù)及其惠益的平等獲取,特別是對農(nóng)村和城市地區(qū)的邊緣化群體而言。

  68.會(huì)員國應(yīng)酌情制定、審查并調(diào)整監(jiān)管框架,在人工智能系統(tǒng)生命周期的不同階段對其內(nèi)容和結(jié)果實(shí)施問責(zé)制和責(zé)任制。會(huì)員國應(yīng)在必要時(shí)出臺責(zé)任框架或澄清對現(xiàn)有框架的解釋,確保為人工智能系統(tǒng)的結(jié)果和性能確定責(zé)任歸屬。此外,會(huì)員國在制定監(jiān)管框架時(shí),應(yīng)特別考慮到最終責(zé)任和問責(zé)必須總是落實(shí)到自然人或法人身上,人工智能系統(tǒng)本身不應(yīng)被賦予法人資格。為確保這一點(diǎn),此類監(jiān)管框架應(yīng)符合人類監(jiān)督原則,并確立著眼于人工智能系統(tǒng)生命周期不同階段的人工智能行為者和技術(shù)流程的綜合性方法。

  69.為在空白領(lǐng)域確立規(guī)范或調(diào)整現(xiàn)有的法律框架,會(huì)員國應(yīng)讓所有人工智能行為者(包括但不限于研究人員、民間社會(huì)和執(zhí)法部門的代表、保險(xiǎn)公司、投資者、制造商、工程師、律師和用戶)參與其中。這些規(guī)范可以發(fā)展成為最佳做法、法律和法規(guī)。進(jìn)一步鼓勵(lì)會(huì)員國采用樣板政策和監(jiān)管沙箱等機(jī)制,加快制定與新技術(shù)的飛速發(fā)展相適應(yīng)的法律、法規(guī)和政策,包括對其進(jìn)行定期審查,確保法律法規(guī)在正式通過之前能夠在安全環(huán)境下進(jìn)行測試。會(huì)員國應(yīng)支持地方政府制定符合國家和國際法律框架的地方政策、法規(guī)和法律。

  70.會(huì)員國應(yīng)對人工智能系統(tǒng)的透明度和可解釋性提出明確要求,以協(xié)助確保人工智能系統(tǒng)整個(gè)生命周期的可信度。此類要求應(yīng)包括影響機(jī)制的設(shè)計(jì)和實(shí)施,其中要考慮到每個(gè)特定人工智能系統(tǒng)的應(yīng)用領(lǐng)域的性質(zhì)、預(yù)期用途、目標(biāo)受眾和可行性。

  【政策領(lǐng)域3:數(shù)據(jù)政策】

  71.會(huì)員國應(yīng)努力制定數(shù)據(jù)治理戰(zhàn)略,確保持續(xù)評估人工智能系統(tǒng)訓(xùn)練數(shù)據(jù)的質(zhì)量,包括數(shù)據(jù)收集和選擇過程的充分性、適當(dāng)?shù)臄?shù)據(jù)安全和保護(hù)措施以及從錯(cuò)誤中學(xué)習(xí)和在所有人工智能行為者之間分享最佳做法的反饋機(jī)制。

  72.會(huì)員國應(yīng)采取適當(dāng)?shù)谋U洗胧?,根?jù)國際法保護(hù)隱私權(quán),包括應(yīng)對人們對于監(jiān)控等問題的關(guān)切。會(huì)員國尤其應(yīng)通過或?qū)嵤┛梢蕴峁┻m當(dāng)保護(hù)并符合國際法的法律框架。會(huì)員國應(yīng)大力鼓勵(lì)包括工商企業(yè)在內(nèi)的所有人工智能行為者遵守現(xiàn)行國際標(biāo)準(zhǔn),特別是在倫理影響評估中開展適當(dāng)?shù)碾[私影響評估,其中要考慮到預(yù)期數(shù)據(jù)處理產(chǎn)生的更廣泛的社會(huì)經(jīng)濟(jì)影響,并在其系統(tǒng)中采用從設(shè)計(jì)入手保護(hù)隱私的做法。在人工智能系統(tǒng)的整個(gè)生命周期內(nèi)應(yīng)尊重、保護(hù)和促進(jìn)隱私。

  73.會(huì)員國應(yīng)確保個(gè)人可以保留對于其個(gè)人數(shù)據(jù)的權(quán)利并得到相關(guān)框架的保護(hù),此類框架尤其應(yīng)預(yù)見到以下問題:透明度;對于處理敏感數(shù)據(jù)的適當(dāng)保障;適當(dāng)程度的數(shù)據(jù)保護(hù);有效和實(shí)際的問責(zé)方案和機(jī)制;除符合國際法的某些情況外,數(shù)據(jù)主體對訪問和刪除其在人工智能系統(tǒng)中個(gè)人數(shù)據(jù)的權(quán)利和能力的充分享有;數(shù)據(jù)用于商業(yè)目的(例如精準(zhǔn)定向廣告)或跨境轉(zhuǎn)移時(shí)完全符合數(shù)據(jù)保護(hù)法的適度保護(hù);切實(shí)有效的獨(dú)立監(jiān)督,作為使個(gè)人可以掌控其個(gè)人數(shù)據(jù)、尊重?cái)?shù)據(jù)主權(quán)并促進(jìn)國際信息自由流通(包括數(shù)據(jù)獲?。┲菀娴臄?shù)據(jù)治理機(jī)制的一部分。

  74.會(huì)員國應(yīng)制定數(shù)據(jù)政策或等效框架,或者加強(qiáng)現(xiàn)有政策或框架,以確保個(gè)人數(shù)據(jù)和敏感數(shù)據(jù)的充分安全,這類數(shù)據(jù)一旦泄露,可能會(huì)給個(gè)人造成特殊損害、傷害或困難。相關(guān)實(shí)例包括:與犯罪、刑事訴訟、定罪以及相關(guān)安全措施有關(guān)的數(shù)據(jù);生物識別、基因和健康數(shù)據(jù);與種族、膚色、血統(tǒng)、性別、年齡、語言、宗教、政治見解、民族、族裔、社會(huì)出身、與生俱來的經(jīng)濟(jì)或社會(huì)條件、殘障情況或任何其他特征有關(guān)的個(gè)人數(shù)據(jù)。

  75.會(huì)員國應(yīng)促進(jìn)開放數(shù)據(jù)。在這方面,會(huì)員國應(yīng)考慮審查其政策和監(jiān)管框架,包括關(guān)于信息獲取和政務(wù)公開的政策和監(jiān)管框架,以便反映出人工智能特有的要求,并考慮促進(jìn)相關(guān)機(jī)制,例如為公共資金資助或公有的數(shù)據(jù)和源代碼以及數(shù)據(jù)信托建立開放式存儲(chǔ)庫,以支持安全、公平、合法與合乎倫理的數(shù)據(jù)分享等。

  76.會(huì)員國應(yīng)推動(dòng)和促進(jìn)將優(yōu)質(zhì)和穩(wěn)健的數(shù)據(jù)集用于訓(xùn)練、開發(fā)和使用人工智能系統(tǒng),并在監(jiān)督數(shù)據(jù)集的收集和使用方面保持警惕。這包括在可能和可行的情況下投資建立黃金標(biāo)準(zhǔn)數(shù)據(jù)集,包括開放、可信、多樣化、建立在有效的法律基礎(chǔ)上并且按法律要求征得數(shù)據(jù)主體同意的數(shù)據(jù)集。應(yīng)鼓勵(lì)制定數(shù)據(jù)集標(biāo)注標(biāo)準(zhǔn),包括按性別和其他標(biāo)準(zhǔn)分列數(shù)據(jù),以便于確定數(shù)據(jù)集的收集方式及其特性。

  77.按照聯(lián)合國秘書長數(shù)字合作高級別小組報(bào)告的建議,會(huì)員國應(yīng)在聯(lián)合國和教科文組織的支持下,酌情采用數(shù)字共享方式處理數(shù)據(jù),提高工具、數(shù)據(jù)集和數(shù)據(jù)托管系統(tǒng)接口的互操作性,鼓勵(lì)私營公司酌情與所有利益攸關(guān)方共享其收集的數(shù)據(jù),以促進(jìn)研究、創(chuàng)新和公共利益。會(huì)員國還應(yīng)促進(jìn)公共和私營部門建立協(xié)作平臺,在可信和安全的數(shù)據(jù)空間內(nèi)共享優(yōu)質(zhì)數(shù)據(jù)。

  【政策領(lǐng)域4:發(fā)展與國際合作】

  78.會(huì)員國和跨國公司應(yīng)優(yōu)先考慮人工智能倫理,在相關(guān)國際、政府間和多利益攸關(guān)方論壇上討論與人工智能有關(guān)的倫理問題。

  79.會(huì)員國應(yīng)確保人工智能在教育、科學(xué)、文化、傳播和信息、衛(wèi)生保健、農(nóng)業(yè)和食品供應(yīng)、環(huán)境、自然資源和基礎(chǔ)設(shè)施管理、經(jīng)濟(jì)規(guī)劃和增長等發(fā)展領(lǐng)域的應(yīng)用符合本建議書提出的價(jià)值觀和原則。

  80.會(huì)員國應(yīng)通過國際組織,努力為人工智能促進(jìn)發(fā)展提供國際合作平臺,包括提供專業(yè)知識、資金、數(shù)據(jù)、領(lǐng)域知識和基礎(chǔ)設(shè)施,以及促進(jìn)多利益攸關(guān)方之間的合作,以應(yīng)對具有挑戰(zhàn)性的發(fā)展問題,特別是針對中低收入國家,尤其是最不發(fā)達(dá)國家、內(nèi)陸發(fā)展中國家和小島嶼發(fā)展中國家。

  81.會(huì)員國應(yīng)努力促進(jìn)人工智能研究和創(chuàng)新方面的國際合作,包括可以提升中低收入國家和其他國家(包括最不發(fā)達(dá)國家、內(nèi)陸發(fā)展中國家和小島嶼發(fā)展中國家)研究人員的參與度和領(lǐng)導(dǎo)作用的研究和創(chuàng)新中心及網(wǎng)絡(luò)。

  82.會(huì)員國應(yīng)通過吸收國際組織、研究機(jī)構(gòu)和跨國公司參與,促進(jìn)人工智能倫理研究,可以將這些研究作為公共和私營實(shí)體以合乎倫理的方式使用人工智能系統(tǒng)的基礎(chǔ),包括研究具體倫理框架在特定文化和背景下的適用性,以及根據(jù)這些框架開發(fā)技術(shù)上可行的解決方案的可能性。

  83.會(huì)員國應(yīng)鼓勵(lì)在人工智能領(lǐng)域開展國際合作與協(xié)作,以彌合地緣技術(shù)差距。應(yīng)在充分尊重國際法的前提下,在會(huì)員國與其民眾之間、公共和私營部門之間以及技術(shù)上最先進(jìn)和最落后的國家之間,開展技術(shù)交流和磋商。

  【政策領(lǐng)域5:環(huán)境和生態(tài)系統(tǒng)】

  84.在人工智能系統(tǒng)的整個(gè)生命周期內(nèi),會(huì)員國和工商企業(yè)應(yīng)評估對環(huán)境產(chǎn)生的直接和間接影響,包括但不限于其碳足跡、能源消耗以及為支持人工智能技術(shù)制造而開采原材料對環(huán)境造成的影響,并應(yīng)減少人工智能系統(tǒng)和數(shù)據(jù)基礎(chǔ)設(shè)施造成的環(huán)境影響。會(huì)員國應(yīng)確保所有人工智能行為者遵守有關(guān)環(huán)境的法律、政策和慣例。

  85.會(huì)員國應(yīng)在必要和適當(dāng)時(shí)引入激勵(lì)措施,確保開發(fā)并采用基于權(quán)利、合乎倫理、由人工智能驅(qū)動(dòng)的解決方案抵御災(zāi)害風(fēng)險(xiǎn);監(jiān)測和保護(hù)環(huán)境與生態(tài)系統(tǒng),并促進(jìn)其再生;保護(hù)地球。這些人工智能系統(tǒng)應(yīng)在其整個(gè)生命周期內(nèi)讓地方和土著社區(qū)參與,并應(yīng)支持循環(huán)經(jīng)濟(jì)做法以及可持續(xù)的消費(fèi)和生產(chǎn)模式。

  例如,在必要和適當(dāng)時(shí)可將人工智能系統(tǒng)用于以下方面:

  (a)支持自然資源的保護(hù)、監(jiān)測和管理。

 ?。╞)支持與氣候有關(guān)問題的預(yù)測、預(yù)防、控制和減緩。

 ?。╟)支持更加高效和可持續(xù)的糧食生態(tài)系統(tǒng)。

 ?。╠)支持可持續(xù)能源的加速獲取和大規(guī)模采用。

 ?。╡)促成并推動(dòng)旨在促進(jìn)可持續(xù)發(fā)展的可持續(xù)基礎(chǔ)設(shè)施、可持續(xù)商業(yè)模式和可持續(xù)金融主流化。

 ?。╢)檢測污染物或預(yù)測污染程度,協(xié)助相關(guān)利益攸關(guān)方確定、規(guī)劃并實(shí)施有針對性的干預(yù)措施,防止并減少污染及曝露風(fēng)險(xiǎn)。

  86.會(huì)員國在選擇人工智能方法時(shí),鑒于其中一些方法可能具有數(shù)據(jù)密集型或資源密集型特點(diǎn)以及對環(huán)境產(chǎn)生的不同影響,應(yīng)確保人工智能行為者能夠根據(jù)相稱性原則,傾向于使用節(jié)約數(shù)據(jù)、能源和資源的人工智能方法。應(yīng)制定要求,確保有適當(dāng)證據(jù)表明一項(xiàng)人工智能應(yīng)用程序?qū)a(chǎn)生這種預(yù)期效果,或一項(xiàng)人工智能應(yīng)用程序的附加保障措施可以為使用該應(yīng)用程序的合理性提供支撐。假如做不到這一點(diǎn),則必須遵循預(yù)防原則,而且在會(huì)對環(huán)境造成極其嚴(yán)重的負(fù)面影響的情況下,不得使用人工智能。

  【政策領(lǐng)域6:性別】

  87.會(huì)員國應(yīng)確保數(shù)字技術(shù)和人工智能促進(jìn)實(shí)現(xiàn)性別平等的潛能得到充分發(fā)揮,而且必須確保在人工智能系統(tǒng)生命周期的任何階段,女童和婦女的人權(quán)和基本自由及其安全和人格不受侵犯。此外,倫理影響評估應(yīng)包含橫向性別平等視角。

  88.會(huì)員國應(yīng)從公共預(yù)算中劃撥專項(xiàng)資金,用于資助促進(jìn)性別平等的計(jì)劃,確保國家數(shù)字政策包含性別行動(dòng)計(jì)劃,并制定旨在支持女童和婦女的相關(guān)政策,例如勞動(dòng)力教育政策,以確保她們不會(huì)被排除在人工智能驅(qū)動(dòng)的數(shù)字經(jīng)濟(jì)之外。應(yīng)考慮并落實(shí)專項(xiàng)投資,用于提供有針對性的計(jì)劃和有性別針對性的語言,從而為女童和婦女參與科學(xué)、技術(shù)、工程和數(shù)學(xué)(STEM)領(lǐng)域,包括信息和通信技術(shù)(信通技術(shù))學(xué)科,以及為她們的就業(yè)準(zhǔn)備、就業(yè)能力、平等的職業(yè)發(fā)展和專業(yè)成長,提供更多機(jī)會(huì)。

  89.會(huì)員國應(yīng)確保人工智能系統(tǒng)推動(dòng)實(shí)現(xiàn)性別平等的潛能得到實(shí)現(xiàn)。會(huì)員國應(yīng)確保這些技術(shù)不會(huì)加劇,而是消除模擬世界多個(gè)領(lǐng)域中已經(jīng)存在的巨大性別差距。這些差距包括:性別工資差距;某些職業(yè)和活動(dòng)中不平等的代表性;人工智能領(lǐng)域高級管理職位、董事會(huì)或研究團(tuán)隊(duì)中的代表性缺失;教育差距;數(shù)字和人工智能的獲取、采用、使用和負(fù)擔(dān)能力方面的差距;以及無償工作和照料責(zé)任在社會(huì)中的不平等分配。

  90.會(huì)員國應(yīng)確保性別陳規(guī)定型觀念和歧視性偏見不會(huì)被移植入人工智能系統(tǒng),而且還應(yīng)對其加以鑒別和主動(dòng)糾正。必須努力避免技術(shù)鴻溝對以下方面產(chǎn)生復(fù)合性負(fù)面影響:實(shí)現(xiàn)性別平等和避免暴力侵害,例如針對婦女和女童以及代表性不足群體的騷擾、欺凌和販運(yùn),包括在線上領(lǐng)域。

  91.會(huì)員國應(yīng)鼓勵(lì)女性創(chuàng)業(yè)、參與并介入人工智能系統(tǒng)生命周期的各個(gè)階段,具體辦法是提供并促進(jìn)經(jīng)濟(jì)和監(jiān)管方面的激勵(lì)措施以及其他激勵(lì)措施和支持計(jì)劃,制定目的是在學(xué)術(shù)界的人工智能研究方面實(shí)現(xiàn)性別均衡的參與、在數(shù)字和人工智能公司高級管理職位、董事會(huì)和研究團(tuán)隊(duì)中實(shí)現(xiàn)性別均衡的代表性的政策。會(huì)員國應(yīng)確保(用于創(chuàng)新、研究和技術(shù)的)公共資金流向具有包容性和明確的性別代表性的計(jì)劃和公司,并利用平權(quán)行動(dòng)原則鼓勵(lì)私人資金朝著類似方向流動(dòng)。應(yīng)制定并執(zhí)行關(guān)于無騷擾環(huán)境的政策,同時(shí)鼓勵(lì)傳播關(guān)于如何在人工智能系統(tǒng)的整個(gè)生命周期內(nèi)促進(jìn)多樣性的最佳做法。

  92.會(huì)員國應(yīng)促進(jìn)學(xué)術(shù)界和產(chǎn)業(yè)界人工智能研究領(lǐng)域的性別多樣性,為女童和婦女進(jìn)入該領(lǐng)域提供激勵(lì)措施,建立機(jī)制消除人工智能研究界的性別陳規(guī)定型觀念和騷擾行為,并鼓勵(lì)學(xué)術(shù)界和私營實(shí)體分享關(guān)于如何提高性別多樣性的最佳做法。

  93.教科文組織可以協(xié)助建立最佳做法資料庫,鼓勵(lì)女童、婦女和代表性不足的群體參與人工智能系統(tǒng)生命周期的各個(gè)階段。

  【政策領(lǐng)域7:文化】

  94.鼓勵(lì)會(huì)員國酌情將人工智能系統(tǒng)納入物質(zhì)、文獻(xiàn)和非物質(zhì)文化遺產(chǎn)(包括瀕危語言以及土著語言和知識)的保護(hù)、豐富、理解、推廣、管理和獲取工作,具體辦法包括酌情出臺或更新與在這些領(lǐng)域應(yīng)用人工智能系統(tǒng)有關(guān)的教育計(jì)劃,以及確保采用針對機(jī)構(gòu)和公眾的參與式方法。

  95.鼓勵(lì)會(huì)員國審查并應(yīng)對人工智能系統(tǒng)產(chǎn)生的文化影響,特別是自動(dòng)翻譯和語音助手等自然語言處理(NLP)應(yīng)用程序給人類語言和表達(dá)的細(xì)微差別帶來的影響。此類評估應(yīng)為設(shè)計(jì)和實(shí)施相關(guān)戰(zhàn)略提供參考,通過彌合文化差距、增進(jìn)人類理解以及消除因減少使用自然語言等因素造成的負(fù)面影響,最大限度地發(fā)揮人工智能系統(tǒng)的惠益。減少使用自然語言可能導(dǎo)致瀕危語言、地方方言以及與人類語言和表達(dá)形式有關(guān)的語音和文化差異的消失。

  96.隨著人工智能技術(shù)被用于創(chuàng)造、生產(chǎn)、推廣、傳播和消費(fèi)多種文化產(chǎn)品和服務(wù),會(huì)員國應(yīng)促進(jìn)針對藝術(shù)家和創(chuàng)意從業(yè)人員的人工智能教育和數(shù)字培訓(xùn),以評估人工智能技術(shù)在其專業(yè)領(lǐng)域的適用性,并推動(dòng)設(shè)計(jì)和應(yīng)用適當(dāng)?shù)娜斯ぶ悄芗夹g(shù),同時(shí)銘記保護(hù)文化遺產(chǎn)、多樣性和藝術(shù)自由的重要性。

  97.會(huì)員國應(yīng)促進(jìn)當(dāng)?shù)匚幕a(chǎn)業(yè)和文化領(lǐng)域的中小企業(yè)對于人工智能工具的認(rèn)識和評價(jià),避免文化市場集中化的風(fēng)險(xiǎn)。

  98.會(huì)員國應(yīng)吸收技術(shù)公司和其他利益攸關(guān)方參與進(jìn)來,促進(jìn)文化表現(xiàn)形式的多樣化供應(yīng)和多元化獲取,特別要確保算法建議可以提高本地內(nèi)容的知名度和可見性。

  99.會(huì)員國應(yīng)促進(jìn)在人工智能和知識產(chǎn)權(quán)的交匯點(diǎn)上開展新的研究,例如確定是否或如何對通過人工智能技術(shù)創(chuàng)作的作品給予知識產(chǎn)權(quán)保護(hù)。會(huì)員國還應(yīng)評估人工智能技術(shù)如何影響作品被用于研究、開發(fā)、培訓(xùn)或?qū)嵤┤斯ぶ悄軕?yīng)用程序的知識產(chǎn)權(quán)所有者的權(quán)利或利益。

  100.會(huì)員國應(yīng)鼓勵(lì)國家級博物館、美術(shù)館、圖書館和檔案館使用人工智能系統(tǒng),以突出其藏品,強(qiáng)化其圖書館、數(shù)據(jù)庫和知識庫,并允許用戶訪問。

  【政策領(lǐng)域8:教育和研究】

  101.會(huì)員國應(yīng)與國際組織、教育機(jī)構(gòu)、私營實(shí)體和非政府實(shí)體合作,在各個(gè)層面向所有國家的公眾提供充分的人工智能素養(yǎng)教育,以增強(qiáng)人們的權(quán)能,減少因廣泛采用人工智能系統(tǒng)而造成的數(shù)字鴻溝和數(shù)字獲取方面的不平等。

  102.會(huì)員國應(yīng)促進(jìn)人工智能教育“必備技能”的掌握,例如基本讀寫、計(jì)算、編碼和數(shù)字技能、媒體與信息素養(yǎng)、批判性思維和創(chuàng)意思維、團(tuán)隊(duì)合作、溝通、社會(huì)情感技能和人工智能倫理技能,特別是在相關(guān)技能教育存在明顯差距的國家及國內(nèi)地區(qū)或區(qū)域。

  103.會(huì)員國應(yīng)促進(jìn)關(guān)于人工智能發(fā)展的一般性宣傳計(jì)劃,其中包括數(shù)據(jù)、人工智能技術(shù)帶來的機(jī)會(huì)和挑戰(zhàn)、人工智能系統(tǒng)對人權(quán)(包括兒童權(quán)利)的影響及其意義。這些計(jì)劃對于非技術(shù)群體和技術(shù)群體來說都應(yīng)簡明易懂。

  104.會(huì)員國應(yīng)鼓勵(lì)開展關(guān)于以負(fù)責(zé)任和合乎倫理的方式將人工智能技術(shù)應(yīng)用于教學(xué)、教師培訓(xùn)和電子學(xué)習(xí)等方面的研究活動(dòng),以增加機(jī)會(huì),減輕這一領(lǐng)域的挑戰(zhàn)和風(fēng)險(xiǎn)。在開展這些研究活動(dòng)的同時(shí),應(yīng)充分評估教育質(zhì)量以及人工智能技術(shù)的應(yīng)用對于學(xué)生和教師的影響。會(huì)員國還應(yīng)確保人工智能技術(shù)可以增強(qiáng)師生的權(quán)能和體驗(yàn),同時(shí)銘記關(guān)系和社交方面以及傳統(tǒng)教育形式的價(jià)值對于師生關(guān)系以及學(xué)生之間的關(guān)系至關(guān)重要,在討論將人工智能技術(shù)應(yīng)用于教育時(shí)應(yīng)考慮到這一點(diǎn)。當(dāng)涉及到監(jiān)測、評估能力或預(yù)測學(xué)習(xí)者的行為時(shí),用于學(xué)習(xí)的人工智能系統(tǒng)應(yīng)符合嚴(yán)格的要求。人工智能應(yīng)依照相關(guān)的個(gè)人數(shù)據(jù)保護(hù)標(biāo)準(zhǔn)支持學(xué)習(xí)過程,既不降低認(rèn)知能力,也不提取敏感信息。在學(xué)習(xí)者與人工智能系統(tǒng)的互動(dòng)過程中收集到的為獲取知識而提交的數(shù)據(jù),不得被濫用、挪用或用于犯罪,包括用于商業(yè)目的。

  105.會(huì)員國應(yīng)提升女童和婦女、不同族裔和文化、殘障人士、邊緣化和弱勢群體或處境脆弱群體、少數(shù)群體以及沒能充分得益于數(shù)字包容的所有人在各級人工智能教育計(jì)劃中的參與度和領(lǐng)導(dǎo)作用,監(jiān)測并與其他國家分享這方面的最佳做法。

  106.會(huì)員國應(yīng)根據(jù)本國教育計(jì)劃和傳統(tǒng),為各級教育開發(fā)人工智能倫理課程,促進(jìn)人工智能技術(shù)技能教育與人工智能教育的人文、倫理和社會(huì)方面的交叉協(xié)作。應(yīng)以當(dāng)?shù)卣Z言(包括土著語言)開發(fā)人工智能倫理教育的在線課程和數(shù)字資源,并考慮到環(huán)境多樣性,特別要確保采用殘障人士可以使用的格式。

  107.會(huì)員國應(yīng)促進(jìn)并支持人工智能研究,特別是人工智能倫理問題研究,具體辦法包括投資于此類研究或制定激勵(lì)措施推動(dòng)公共和私營部門投資于這一領(lǐng)域等,同時(shí)承認(rèn)此類研究可極大地推動(dòng)人工智能技術(shù)的進(jìn)一步發(fā)展和完善,以促進(jìn)落實(shí)國際法和本建議書中提出的價(jià)值觀和原則。會(huì)員國還應(yīng)公開推廣以合乎倫理的方式開發(fā)人工智能的研究人員和公司的最佳做法,并與之合作。

  108.會(huì)員國應(yīng)確保人工智能研究人員接受過研究倫理培訓(xùn),并要求他們將倫理考量納入設(shè)計(jì)、產(chǎn)品和出版物中,特別是在分析其使用的數(shù)據(jù)集、數(shù)據(jù)集的標(biāo)注方法以及可能投入應(yīng)用的成果的質(zhì)量和范圍方面。

  109.會(huì)員國應(yīng)鼓勵(lì)私營公司為科學(xué)界獲取其數(shù)據(jù)用于研究提供便利,特別是在中低收入國家,尤其是最不發(fā)達(dá)國家、內(nèi)陸發(fā)展中國家和小島嶼發(fā)展中國家。這種獲取應(yīng)遵守相關(guān)隱私和數(shù)據(jù)保護(hù)標(biāo)準(zhǔn)。

  110.為確保對人工智能研究進(jìn)行批判性評估并適當(dāng)監(jiān)測可能出現(xiàn)的濫用或負(fù)面影響,會(huì)員國應(yīng)確保人工智能技術(shù)今后的任何發(fā)展都應(yīng)建立在嚴(yán)謹(jǐn)和獨(dú)立的科學(xué)研究基礎(chǔ)上,并吸收除科學(xué)、技術(shù)、工程和數(shù)學(xué)(STEM)之外的其他學(xué)科,例如文化研究、教育、倫理學(xué)、國際關(guān)系、法律、語言學(xué)、哲學(xué)、政治學(xué)、社會(huì)學(xué)和心理學(xué)等,促進(jìn)開展跨學(xué)科的人工智能研究。

  111.認(rèn)識到人工智能技術(shù)為助力推進(jìn)科學(xué)知識和實(shí)踐提供了大好機(jī)會(huì),特別是在以往采用模型驅(qū)動(dòng)方法的學(xué)科中,會(huì)員國應(yīng)鼓勵(lì)科學(xué)界認(rèn)識到使用人工智能的惠益、不足和風(fēng)險(xiǎn);這包括努力確保通過數(shù)據(jù)驅(qū)動(dòng)的方法、模型和處理方式得出的結(jié)論完善可靠。此外,會(huì)員國應(yīng)歡迎并支持科學(xué)界在為政策建言獻(xiàn)策和促進(jìn)人們認(rèn)識到人工智能技術(shù)的優(yōu)缺點(diǎn)方面發(fā)揮作用。

  【政策領(lǐng)域9:傳播和信息】

  112.會(huì)員國應(yīng)利用人工智能系統(tǒng)改善信息和知識的獲取。這可包括向研究人員、學(xué)術(shù)界、記者、公眾和開發(fā)人員提供支持,以加強(qiáng)表達(dá)自由、學(xué)術(shù)和科學(xué)自由、信息獲取,加大主動(dòng)披露官方數(shù)據(jù)和信息的力度。

  113.在自動(dòng)內(nèi)容生成、審核和策管方面,會(huì)員國應(yīng)確保人工智能行為者尊重并促進(jìn)表達(dá)自由和信息獲取自由。適當(dāng)?shù)目蚣?,包括監(jiān)管,應(yīng)讓線上通信和信息運(yùn)營商具有透明度,并確保用戶能夠獲取多樣化的觀點(diǎn),以及迅速告知用戶為何對內(nèi)容進(jìn)行刪除或其他處理的相關(guān)程序和讓用戶能夠?qū)で笱a(bǔ)救的申訴機(jī)制。

  114.會(huì)員國應(yīng)投資于并促進(jìn)數(shù)字以及媒體與信息素養(yǎng)技能,加強(qiáng)理解人工智能系統(tǒng)的使用和影響所需的批判性思維和能力,從而減少和打擊虛假信息、錯(cuò)誤信息和仇恨言論。此種努力應(yīng)包括加強(qiáng)對推薦系統(tǒng)的積極和潛在有害影響的了解和評估。

  115.會(huì)員國應(yīng)為媒體創(chuàng)造有利的環(huán)境,使媒體有權(quán)利和資源切實(shí)有效地報(bào)道人工智能系統(tǒng)的利弊,并鼓勵(lì)媒體在其業(yè)務(wù)中以合乎倫理的方式使用人工智能系統(tǒng)。

  【政策領(lǐng)域10:經(jīng)濟(jì)和勞動(dòng)】

  116.會(huì)員國應(yīng)評估并處理人工智能系統(tǒng)對所有國家勞動(dòng)力市場的沖擊及其對教育要求的影響,同時(shí)特別關(guān)注經(jīng)濟(jì)屬于勞動(dòng)密集型的國家。這可以包括在各級教育中引入更廣泛的跨學(xué)科“核心”技能,為當(dāng)前的勞動(dòng)者和年輕世代提供可以在飛速變化的市場中找到工作的公平機(jī)會(huì),并確保他們對于人工智能系統(tǒng)的倫理問題有所認(rèn)識。除了傳授專業(yè)技術(shù)技能和低技能任務(wù)知識之外,還應(yīng)教授“學(xué)會(huì)如何學(xué)習(xí)”、溝通、批判性思維、團(tuán)隊(duì)合作、同理心以及在不同領(lǐng)域之間靈活運(yùn)用知識的能力等技能。關(guān)鍵是要在有高需求的技能方面保持透明度,并圍繞這些技能更新學(xué)校課程。

  117.會(huì)員國應(yīng)支持政府、學(xué)術(shù)機(jī)構(gòu)、職業(yè)教育與培訓(xùn)機(jī)構(gòu)、產(chǎn)業(yè)界、勞工組織和民間社會(huì)之間的合作協(xié)議,以彌合技能要求方面的差距,讓培訓(xùn)計(jì)劃和戰(zhàn)略與未來工作的影響和包括中小企業(yè)在內(nèi)的產(chǎn)業(yè)界的需求保持一致。應(yīng)促進(jìn)以項(xiàng)目為基礎(chǔ)的人工智能教學(xué)和學(xué)習(xí)方法,以便公共機(jī)構(gòu)、私營公司、大學(xué)和研究中心之間能夠建立伙伴關(guān)系118.會(huì)員國應(yīng)與私營公司、民間組織和其他利益攸關(guān)方(包括勞動(dòng)者和工會(huì))合作,確保高風(fēng)險(xiǎn)員工可以實(shí)現(xiàn)公平轉(zhuǎn)型。這包括制定技能提升計(jì)劃和技能重塑計(jì)劃,建立在過渡期內(nèi)保留員工的有效機(jī)制,以及為無法得到再培訓(xùn)的員工探索嘗試“安全網(wǎng)”計(jì)劃。會(huì)員國應(yīng)制定并實(shí)施計(jì)劃,以研究和應(yīng)對已確定的各項(xiàng)挑戰(zhàn),其中可能包括技能提升和技能重塑、加強(qiáng)社會(huì)保障、主動(dòng)的行業(yè)政策和干預(yù)措施、稅收優(yōu)惠、新的稅收形式等。會(huì)員國應(yīng)確保有足夠的公共資金來支持這些計(jì)劃。應(yīng)審慎審查并在必要時(shí)修改稅制等相關(guān)法規(guī),消解基于人工智能的自動(dòng)化造成的失業(yè)后果。

  119.會(huì)員國應(yīng)鼓勵(lì)并支持研究人員分析人工智能系統(tǒng)對于當(dāng)?shù)貏趧?dòng)環(huán)境的影響,以預(yù)測未來的趨勢和挑戰(zhàn)。這些研究應(yīng)采用跨學(xué)科方法,調(diào)查人工智能系統(tǒng)對經(jīng)濟(jì)、社會(huì)和地域因素、人機(jī)互動(dòng)和人際關(guān)系產(chǎn)生的影響,以便就技能重塑和重新部署的最佳做法提出建議。

  120.會(huì)員國應(yīng)采取適當(dāng)措施,確保競爭性市場和消費(fèi)者保護(hù),同時(shí)考慮可在國家、地區(qū)和國際各級采取何種措施和機(jī)制來防止在人工智能系統(tǒng)的整個(gè)生命周期內(nèi)濫用與人工智能系統(tǒng)有關(guān)的市場支配地位,包括壟斷,無論是數(shù)據(jù)、研究、技術(shù)還是市場壟斷。會(huì)員國應(yīng)防止由此造成的不平等,評估相關(guān)市場,并促進(jìn)競爭性市場。應(yīng)適當(dāng)考慮中低收入國家,尤其是最不發(fā)達(dá)國家、內(nèi)陸發(fā)展中國家和小島嶼發(fā)展中國家,這些國家由于缺乏基礎(chǔ)設(shè)施、人力資源能力和規(guī)章制度等要素,面臨濫用市場支配地位行為的風(fēng)險(xiǎn)更大,也更容易因之受到影響。

  在已制定或通過人工智能倫理標(biāo)準(zhǔn)的國家從事人工智能系統(tǒng)開發(fā)的人工智能行為者,在出口這些產(chǎn)品以及在可能沒有此類標(biāo)準(zhǔn)的國家開發(fā)或應(yīng)用其人工智能系統(tǒng)時(shí),應(yīng)遵守這些標(biāo)準(zhǔn),并遵守適用的國際法以及這些國家的國內(nèi)立法、標(biāo)準(zhǔn)和慣例。

  【政策領(lǐng)域11:健康和社會(huì)福祉】

  121.會(huì)員國應(yīng)努力利用有效的人工智能系統(tǒng)來改善人類健康并保護(hù)生命權(quán),包括減少疾病的爆發(fā),同時(shí)建立并維護(hù)國際團(tuán)結(jié),以應(yīng)對全球健康風(fēng)險(xiǎn)和不確定性,并確保在衛(wèi)生保健領(lǐng)域采用人工智能系統(tǒng)的做法符合國際法及其人權(quán)法義務(wù)。會(huì)員國應(yīng)確保參與衛(wèi)生保健人工智能系統(tǒng)的行為者會(huì)考慮到患者與家屬的關(guān)系以及患者與醫(yī)護(hù)人員關(guān)系的重要性。

  122.會(huì)員國應(yīng)確保與健康、特別是精神健康有關(guān)的人工智能系統(tǒng)的開發(fā)和部署適當(dāng)關(guān)注兒童和青年,并受到監(jiān)管,使其做到安全、有效、高效、經(jīng)過科學(xué)和醫(yī)學(xué)證明并能促進(jìn)循證創(chuàng)新和醫(yī)學(xué)進(jìn)步。此外,在數(shù)字健康干預(yù)的相關(guān)領(lǐng)域,大力鼓勵(lì)會(huì)員國主動(dòng)讓患者及其代表參與系統(tǒng)開發(fā)的所有相關(guān)步驟。

  123.會(huì)員國應(yīng)特別注意通過以下方式規(guī)范人工智能應(yīng)用程序中用于衛(wèi)生保健的預(yù)測、檢測和治療方案:

 ?。╝)確保監(jiān)督,以盡可能減少和減輕偏見;

 ?。╞)在開發(fā)算法時(shí),確保在所有相關(guān)階段將專業(yè)人員、患者、護(hù)理人員或服務(wù)用戶作為“領(lǐng)域?qū)<摇奔{入團(tuán)隊(duì);

 ?。╟)適當(dāng)注意因可能需要醫(yī)學(xué)監(jiān)測而產(chǎn)生的隱私問題,并確保所有相關(guān)的國家和國際數(shù)據(jù)保護(hù)要求得到滿足;

 ?。╠)確保建立有效機(jī)制,讓被分析的數(shù)據(jù)主體了解對其個(gè)人數(shù)據(jù)的使用和分析并給予知情同意,同時(shí)又不妨礙他們獲取衛(wèi)生保健服務(wù);

  (e)確保人工護(hù)理以及最終的診斷和治療決定一律由人類作出,同時(shí)肯定人工智能系統(tǒng)也可以協(xié)助人類工作;

 ?。╢)必要時(shí)確保在投入臨床使用之前由倫理研究委員會(huì)對人工智能系統(tǒng)進(jìn)行審查。

  124.會(huì)員國應(yīng)研究人工智能系統(tǒng)對于心理健康的潛在危害所產(chǎn)生的影響及如何加以調(diào)控的問題,例如深度抑郁、焦慮、社會(huì)隔離、成癮、販運(yùn)、激進(jìn)化和誤導(dǎo)等。

  125.會(huì)員國應(yīng)在研究的基礎(chǔ)上,針對機(jī)器人的未來發(fā)展,制定關(guān)于人機(jī)互動(dòng)及其對人際關(guān)系所產(chǎn)生影響的準(zhǔn)則,并特別關(guān)注人類身心健康。尤其應(yīng)關(guān)注應(yīng)用于衛(wèi)生保健以及老年人和殘障人士護(hù)理的機(jī)器人、應(yīng)用于教育的機(jī)器人、兒童用機(jī)器人、玩具機(jī)器人、聊天機(jī)器人以及兒童和成人的陪伴機(jī)器人的使用問題。此外,應(yīng)利用人工智能技術(shù)的協(xié)助來提高機(jī)器人的安全性,增進(jìn)其符合人體工程學(xué)的使用,包括在人機(jī)工作環(huán)境中。應(yīng)特別注意到利用人工智能操控和濫用人類認(rèn)知偏差的可能性。

  126.會(huì)員國應(yīng)確保人機(jī)互動(dòng)遵守適用于任何其他人工智能系統(tǒng)的相同價(jià)值觀和原則,包括人權(quán)和基本自由、促進(jìn)多樣性和保護(hù)弱勢群體或處境脆弱群體。應(yīng)考慮與人工智能驅(qū)動(dòng)的神經(jīng)技術(shù)系統(tǒng)和腦機(jī)接口有關(guān)的倫理問題,以維護(hù)人的尊嚴(yán)和自主權(quán)。

  127.會(huì)員國應(yīng)確保用戶能夠輕松識別與自己互動(dòng)的對象是生物,還是模仿人類或動(dòng)物特征的人工智能系統(tǒng),并且能夠有效拒絕此類互動(dòng)和要求人工介入。

  128.會(huì)員國應(yīng)實(shí)施政策,提高人們對于人工智能技術(shù)以及能夠識別和模仿人類情緒的技術(shù)擬人化的認(rèn)識,包括在提及這些技術(shù)時(shí)所使用的語言,并評估這種擬人化的表現(xiàn)形式、倫理影響和可能存在的局限性,特別是在人機(jī)互動(dòng)的情況下和涉及到兒童時(shí)。

  129.會(huì)員國應(yīng)鼓勵(lì)并促進(jìn)關(guān)于人與人工智能系統(tǒng)長期互動(dòng)所產(chǎn)生影響的合作研究,特別注意這些系統(tǒng)對兒童和青年的心理和認(rèn)知可能產(chǎn)生的影響。在開展此類研究時(shí),應(yīng)采用多種規(guī)范、原則、協(xié)議、學(xué)科方法,評估行為和習(xí)慣的改變,并審慎評估下游的文化和社會(huì)影響。

  此外,會(huì)員國應(yīng)鼓勵(lì)研究人工智能技術(shù)對于衛(wèi)生系統(tǒng)的業(yè)績和衛(wèi)生結(jié)果產(chǎn)生的影響。

  130.會(huì)員國和所有利益攸關(guān)方應(yīng)建立機(jī)制,讓兒童和青年切實(shí)參與到關(guān)于人工智能系統(tǒng)對其生活和未來所產(chǎn)生影響的對話、辯論和決策中。

五、監(jiān)測和評估

  131.會(huì)員國應(yīng)根據(jù)本國具體國情、治理結(jié)構(gòu)和憲法規(guī)定,采用定量和定性相結(jié)合的方法,以可信和透明的方式監(jiān)測和評估與人工智能倫理問題有關(guān)的政策、計(jì)劃和機(jī)制。為支持會(huì)員國,教科文組織可以從以下方面作出貢獻(xiàn):

 ?。╝)制定以嚴(yán)謹(jǐn)?shù)目茖W(xué)研究為基礎(chǔ)且以國際人權(quán)法為根據(jù)的教科文組織人工智能技術(shù)倫理影響評估(EIA)方法,關(guān)于在人工智能系統(tǒng)生命周期各個(gè)階段實(shí)施該方法的指南,以及用于支持會(huì)員國對政府官員、政策制定者和其他相關(guān)人工智能行為者進(jìn)行倫理影響評估方法培訓(xùn)的能力建設(shè)材料;

 ?。╞)制定教科文組織準(zhǔn)備狀態(tài)評估方法,協(xié)助會(huì)員國確定其準(zhǔn)備進(jìn)程各個(gè)方面在特定時(shí)刻的所處狀態(tài);

 ?。╟)制定教科文組織關(guān)于在事先和事后對照既定目標(biāo)評估人工智能倫理政策和激勵(lì)政策效力和效率的方法;

 ?。╠)加強(qiáng)關(guān)于人工智能倫理政策的基于研究和證據(jù)的分析和報(bào)告;

  (e)收集和傳播關(guān)于人工智能倫理政策的進(jìn)展、創(chuàng)新、研究報(bào)告、科學(xué)出版物、數(shù)據(jù)和統(tǒng)計(jì)資料,包括通過現(xiàn)有舉措,以支持最佳做法分享和相互學(xué)習(xí),推動(dòng)實(shí)施本建議書。

  132.監(jiān)測和評估進(jìn)程應(yīng)確保所有利益攸關(guān)方的廣泛參與,包括但不限于弱勢群體或處境脆弱群體。應(yīng)確保社會(huì)、文化和性別多樣性,以期改善學(xué)習(xí)過程,加強(qiáng)調(diào)查結(jié)果、決策、透明度和成果問責(zé)制之間的聯(lián)系。

  133.為促進(jìn)與人工智能倫理有關(guān)的最佳政策和做法,應(yīng)制定適當(dāng)?shù)墓ぞ吆椭笜?biāo),以便根據(jù)商定的標(biāo)準(zhǔn)、優(yōu)先事項(xiàng)和具體目標(biāo),包括關(guān)于處境不利者、邊緣化群體和弱勢群體或處境脆弱群體的具體目標(biāo),評估此類政策和做法的效力和效率,以及人工智能系統(tǒng)在個(gè)人和社會(huì)層面產(chǎn)生的影響。人工智能系統(tǒng)及相關(guān)人工智能倫理政策和做法的影響監(jiān)測和評估應(yīng)以與有關(guān)風(fēng)險(xiǎn)相稱的系統(tǒng)方法持續(xù)開展。這項(xiàng)工作應(yīng)以國際商定的框架為基礎(chǔ),涉及對于私營和公共機(jī)構(gòu)、提供方和計(jì)劃的評估,包括自我評估,以及開展跟蹤研究和制定一系列指標(biāo)。數(shù)據(jù)收集和處理工作應(yīng)遵守國際法、關(guān)于數(shù)據(jù)保護(hù)和數(shù)據(jù)隱私的國家立法以及本建議書概述的價(jià)值觀和原則。

  134.尤其是,會(huì)員國不妨考慮可行的監(jiān)測和評估機(jī)制,例如:倫理問題委員會(huì)、人工智能倫理問題觀察站、記錄符合人權(quán)與合乎倫理的人工智能系統(tǒng)發(fā)展情況或在教科文組織各職能領(lǐng)域通過恪守倫理原則為現(xiàn)有舉措作出貢獻(xiàn)的資料庫、經(jīng)驗(yàn)分享機(jī)制、人工智能監(jiān)管沙箱和面向所有人工智能行為者的評估指南,以評估會(huì)員國對于本文件所述政策建議的遵守情況。

六、本建議書的使用和推廣

  135.會(huì)員國和本建議書確定的所有其他利益攸關(guān)方應(yīng)尊重、促進(jìn)和保護(hù)本建議書提出的人工智能倫理價(jià)值觀、原則和標(biāo)準(zhǔn),并應(yīng)采取一切可行步驟,落實(shí)本建議書的政策建議。

  136.會(huì)員國應(yīng)與在本建議書的范圍和目標(biāo)范疇內(nèi)開展活動(dòng)的所有相關(guān)國家和國際政府組織、非政府組織、跨國公司和科學(xué)組織合作,努力擴(kuò)大并充實(shí)圍繞本建議書采取的行動(dòng)。

  制定教科文組織倫理影響評估方法和建立國家人工智能倫理委員會(huì),可以作為這方面的重要手段。

七、本建議書的宣傳

  137.教科文組織是負(fù)責(zé)宣傳和傳播本建議書的主要聯(lián)合國機(jī)構(gòu),因此將與其他相關(guān)聯(lián)合國實(shí)體合作開展工作,同時(shí)尊重它們的任務(wù)授權(quán)并避免工作重復(fù)。

  138.教科文組織,包括其世界科學(xué)知識與技術(shù)倫理委員會(huì)(COMEST)、國際生物倫理委員會(huì)(IBC)和政府間生物倫理委員會(huì)(IGBC)等機(jī)構(gòu),還將與其他國際、地區(qū)和分地區(qū)政府組織和非政府組織開展合作。

  139.盡管在教科文組織范圍內(nèi),促進(jìn)和保護(hù)任務(wù)屬于各國政府和政府間機(jī)構(gòu)的職權(quán)范圍,但民間社會(huì)將是倡導(dǎo)公共部門利益的重要行為者,因此教科文組織需要確保和促進(jìn)其合法性。

八、最后條款

  140.應(yīng)將本建議書作為一個(gè)整體來理解,各項(xiàng)基本價(jià)值觀和原則應(yīng)被視為相互補(bǔ)充、相互關(guān)聯(lián)。

  141.本建議書中的任何內(nèi)容既不得解釋為取代、改變或以其他方式損害各國根據(jù)國際法所負(fù)義務(wù)或所享權(quán)利,也不得解釋為允許任何國家、其他政治、經(jīng)濟(jì)或社會(huì)行為者、群體或個(gè)人參與或從事任何有悖人權(quán)、基本自由、人的尊嚴(yán)以及對生物和非生物的環(huán)境與生態(tài)系統(tǒng)所抱之關(guān)切的活動(dòng)或行為。

責(zé)任編輯:藺弦弦

分享: