來源:商湯智能產(chǎn)業(yè)研究院 時間:2022-10-08 16:23:22 作者:
隨著人工智能技術(shù)高速發(fā)展,加強人工智能倫理與治理成為大勢所趨。近日,商湯科技發(fā)布《“平衡發(fā)展”的人工智能治理白皮書——商湯人工智能倫理與治理年度報告(2022年)》(以下簡稱“報告”),系統(tǒng)呈現(xiàn)了商湯在推動AI治理落地進程中的洞察、思考、目標與實踐。
報告提出,從發(fā)展歷程看,人工智能治理至今先后經(jīng)歷了三個發(fā)展階段,目前,已進入落地實踐階段,即人工智能治理3.0階段。
圖1 全球人工智能治理發(fā)展歷程
資料來源:商湯智能產(chǎn)業(yè)研究院
人工智能治理的1.0階段
起于2016年,以原則討論為主。哈佛大學Jessica Fjeld等在研究中將人工智能治理1.0階段開端定位于2016年9月的Google、Facebook、IBM、亞馬遜和微軟等美國企業(yè)發(fā)布的《Principles of Partnership on AI》。
Anna Jobin 等通過梳理來自全球84份人工智能倫理相關(guān)的原則或準則文件同樣發(fā)現(xiàn),2016年之后發(fā)布的占比高達88%;其中,私營企業(yè)和政府部門發(fā)布的文件數(shù)量分別占比22.6%和21.4%。
人工智能治理的2.0階段
起于2020年,以政策討論為主。2020年2月,歐盟委員會發(fā)布《人工智能白皮書》,在全球率先提出了“基于風險的人工智能監(jiān)管框架”。此后,主要國家紛紛跟進,均在不同程度開展了監(jiān)管人工智能相關(guān)技術(shù)及應(yīng)用的探索。因此,2020年也常被稱為“人工智能監(jiān)管元年”。
據(jù)OECD的最新監(jiān)測,全球已有60余個國家提出了700余項人工智能政策舉措,而德勤全球(Deloitte Global)則進一步預(yù)測 ,2022年將會有大量關(guān)于更系統(tǒng)地監(jiān)管人工智能的討論。
人工智能治理的3.0階段
起于2022年,以技術(shù)驗證為主。進入2022年,隨著全球人工智能治理進程的持續(xù)推進,以及可信、負責任人工智能等相關(guān)理念的持續(xù)滲透,有關(guān)驗證人工智能治理如何落地實施的倡議日益增多。
在政府側(cè),2022年5月,新加坡政府率先推出了全球首個人工智能治理開源測試工具箱“AI.Verify”;2022年6月,西班牙政府與歐盟委員會介紹了第一個人工智能監(jiān)管沙箱的試點計劃。
在市場側(cè),美國人工智能治理研究機構(gòu)RAII發(fā)布了“負責任人工智能認證計劃”,向企業(yè)、組織、機構(gòu)等提供RAII認證評級系統(tǒng)。
面向3.0階段,報告提出人工智能治理的技術(shù)驗證應(yīng)包括兩個層面,一是通過實踐驗證原則、政策要求和標準的可落地性,二是通過采用技術(shù)工具驗證對各方對人工智能治理規(guī)范的落實程度。
報告指出,目前,人工智能治理落地實踐仍面臨許多挑戰(zhàn),下一步,推動人工智能治理落地應(yīng)重點關(guān)注以下“三組關(guān)系”:
圖2 人工智能治理落地應(yīng)重點關(guān)注“三組關(guān)系”
資料來源:商湯智能產(chǎn)業(yè)研究院
第一:理念與行動的關(guān)系。研究發(fā)現(xiàn),雖然超過一半的組織發(fā)布或公開認可AI倫理的共同原則,但只有不到四分之一的組織將其付諸實施,AI治理在實踐過程中仍面臨諸多現(xiàn)實挑戰(zhàn):
一是人工智能治理與現(xiàn)有組織結(jié)構(gòu)的融合問題。人工智能治理工作涉及信息安全、數(shù)據(jù)治理等與現(xiàn)有組織結(jié)構(gòu)重疊的領(lǐng)域,職責交叉、工作范圍難以厘清等問題在組織層面對推動落地實踐形成了一定的制約;
二是倫理治理短期業(yè)務(wù)收益不明顯的問題。在推動AI倫理治理工作時,業(yè)務(wù)方可能會因看不到短期收益,出現(xiàn)對倫理治理工作重視程度降低、治理工作落實缺位等情況;
三是倫理治理落實缺乏共識性標準的問題。
第二:政策與實踐的關(guān)系。政策制定者與技術(shù)開發(fā)者的視角不同、立場不同,對政策意涵的理解也不盡相同,在推動人工智能治理落地的過程中,還需要將政策要求轉(zhuǎn)化為技術(shù)和業(yè)務(wù)團隊可執(zhí)行的實踐標準。處理好政策與實踐的關(guān)系,應(yīng)重點考慮以下四方面:
一是政策制定應(yīng)考慮產(chǎn)業(yè)、技術(shù)應(yīng)用的動態(tài)性和多樣性,為行業(yè)發(fā)展提供一定寬松的環(huán)境;
二是不同機構(gòu)、部門、國家應(yīng)努力推動AI治理標準的互聯(lián)互通;
三是應(yīng)加強AI治理實踐部門在政策制定過程中的參與程度,提升政策要求的可落地性;
四是政策層面與產(chǎn)業(yè)層面在AI治理相關(guān)問題的定義方面應(yīng)當尋求更多共識。
第三:技術(shù)與用戶的關(guān)系。目前,AI治理仍主要局限于專業(yè)討論、企業(yè)內(nèi)部治理領(lǐng)域,尚未將最終用戶納入AI治理的工作體系之中。因此,市場或者社會上對AI相關(guān)的治理問題還存在不少的誤解,有些用戶會將暫時的技術(shù)問題定義為長期性的治理問題,例如,將新部署的AI系統(tǒng)暫時性的識別效果不佳的問題理解為算法歧視問題。
有研究發(fā)現(xiàn),只有40%的消費者相信企業(yè)在開發(fā)和部署新技術(shù)時是負責任且合乎倫理的,用戶對AI治理缺乏深度認識。因此,在推動AI治理落地的過程中,應(yīng)處理好技術(shù)與用戶間的關(guān)系,技術(shù)提供方應(yīng)使用用戶語言講解技術(shù),AI治理機構(gòu)應(yīng)主動清治理挑戰(zhàn)的根源、深化用戶對AI治理問題的理解、賦予用戶參與治理的能力。此外,企業(yè)還應(yīng)加大對治理技術(shù)工具的投入,提升AI治理的可驗證性。
同時,報告指出,商湯科技作為AI行業(yè)的領(lǐng)先企業(yè),高度重視人工智能倫理與治理工作,始終堅持“平衡發(fā)展”的倫理觀,倡導“可持續(xù)發(fā)展、以人為本、技術(shù)可控”的倫理原則,實行嚴格的產(chǎn)品倫理風險控制機制,建設(shè)全面的AI倫理治理體系,并積極探索數(shù)據(jù)治理、算法治理相關(guān)的檢測工具和技術(shù)手段,致力于將倫理原則嵌入到產(chǎn)品設(shè)計、開發(fā)、部署的全生命周期。
報告內(nèi)容表示,在未來,商湯將持續(xù)推動發(fā)展負責任且可評估的人工智能,為AI治理實踐不斷貢獻完善、可行的落地方案。
具體內(nèi)容如下
責任編輯:藺弦弦