精品无人区无码乱码毛片国产_性做久久久久久免费观看_天堂中文在线资源_7777久久亚洲中文字幕

首頁 報(bào)告正文

國(guó)內(nèi)首份可解釋 AI 報(bào)告

  隨著各界對(duì)AI倫理的日益重視,AI系統(tǒng)的可解釋性也逐漸成為熱點(diǎn),甚至上升到立法和監(jiān)管的要求。許多人工智能領(lǐng)域的專家都把2021年視為“AI可解釋元年”,在這一年,不僅政府出臺(tái)相應(yīng)的監(jiān)管要求,國(guó)內(nèi)外許多科技公司,譬如谷歌、微軟、IBM、美團(tuán)、微博、騰訊等,也都推出了相應(yīng)的舉措。

  近日,騰訊研究院、騰訊天衍實(shí)驗(yàn)室、騰訊優(yōu)圖實(shí)驗(yàn)室、騰訊AILab等組成的跨學(xué)科研究團(tuán)隊(duì),歷時(shí)近一年,完成業(yè)內(nèi)首份《可解釋AI發(fā)展報(bào)告2022——打開算法黑箱的理念與實(shí)踐》,全面梳理可解釋AI的概念、監(jiān)管政策、發(fā)展趨勢(shì)、行業(yè)實(shí)踐,并提出未來發(fā)展建議。

  2021年11月,聯(lián)合國(guó)UNESCO通過首個(gè)全球性的AI倫理協(xié)議《人工智能倫理建議書》(Recommendation on the ethics of artificial intelligence),提出的十大AI原則包括“透明性與可解釋性”,即算法的工作方式和算法訓(xùn)練數(shù)據(jù)應(yīng)具有透明度和可理解性。

  就當(dāng)前而言,機(jī)器學(xué)習(xí)模型尤其是深度學(xué)習(xí)模型往往是不透明的,難以為人類所理解的。未來,人工智能的持續(xù)進(jìn)步有望帶來自主感知、學(xué)習(xí)、決策、行動(dòng)的自主系統(tǒng)。然而,這些系統(tǒng)的實(shí)際效用受限于機(jī)器是否能夠充分地向人類用戶解釋其思想和行動(dòng)。如果用戶想要理解、信任、有效管理新一代的人工智能伙伴,人工智能系統(tǒng)的透明性與可解釋性就是至關(guān)重要的。因此,近年來,可解釋AI(Explainable Artificial Intellifence,簡(jiǎn)稱“XAI”)成為了AI研究的新興領(lǐng)域,學(xué)術(shù)界與產(chǎn)業(yè)界等紛紛探索理解AI系統(tǒng)行為的方法和工具。

  可解釋AI的意義:第一,幫助用戶增強(qiáng)對(duì)AI系統(tǒng)的信息與信任。第二,防止偏見,促進(jìn)算法公平。第三,滿足監(jiān)管標(biāo)準(zhǔn)或政策要求。第四,理解和驗(yàn)證AI系統(tǒng)的輸出,推動(dòng)系統(tǒng)設(shè)計(jì)的改進(jìn)。第五,幫助評(píng)估風(fēng)險(xiǎn)、魯棒性和脆弱性。

  可解釋AI的發(fā)展趨勢(shì):第一,AI的透明性和可解釋性逐漸成為立法和監(jiān)管關(guān)注的焦點(diǎn)。第二,對(duì)政府公共部門使用的AI系統(tǒng)提出較高的透明度與可解釋性要求。第三,對(duì)商業(yè)領(lǐng)域的AI系統(tǒng)在可解釋方面避免作“一刀切”要求。第四,行業(yè)積極探索可解釋AI的技術(shù)解決方案。

  報(bào)告指出,透明性與可解釋性,連同公平性評(píng)價(jià)、安全考慮、人類AI協(xié)作、責(zé)任框架,都是AI領(lǐng)域的基本問題。對(duì)AI應(yīng)用系統(tǒng)的透明性與可解釋性要求,需要考慮受眾需求、應(yīng)用場(chǎng)景、技術(shù)與經(jīng)濟(jì)可行性、時(shí)空等因素,同時(shí)與效率、安全、隱私、網(wǎng)絡(luò)安全、知識(shí)產(chǎn)權(quán)等目的做好平衡,界定不同場(chǎng)景的最小可接受標(biāo)準(zhǔn),必要時(shí)采取常規(guī)監(jiān)測(cè)、人類審查等剎車機(jī)制,而非一味要求算法解釋或算法公開。

具體內(nèi)容如下

責(zé)任編輯:藺弦弦

分享: