新聞中心
與任何信息技術(shù)一樣,人工智能也會(huì)面臨各種安全問(wèn)題以及其他新出現(xiàn)的問(wèn)題,如隱私、歧視、不公平等。美國(guó)國(guó)家標(biāo)準(zhǔn)與技術(shù)研究所(NIST)正在開發(fā)一個(gè)志愿性質(zhì)的框架,以更好地管理人工智能相關(guān)的風(fēng)險(xiǎn),稱為人工智能風(fēng)險(xiǎn)管理框架(AI RMF)。該框架的目標(biāo)是提高將可信度納入AI的能力,包括AI的產(chǎn)品、服務(wù)、系統(tǒng)的設(shè)計(jì)、開發(fā)、使用和評(píng)估。

該框架的初稿建立在2021年12月NIST發(fā)布的一份概念性文件上。NIST希望AI RMF能夠描述基于人工智能的系統(tǒng),其風(fēng)險(xiǎn)與其他領(lǐng)域的風(fēng)險(xiǎn)有何不同,并鼓勵(lì)利益相關(guān)群體有針對(duì)性地解決這些風(fēng)險(xiǎn)。NIST表示,它可以用于超出框架之外的合規(guī)映射,如現(xiàn)有法律法規(guī)或其他強(qiáng)制性指南等。
盡管人工智能框架面臨著與其他NIST框架類似的風(fēng)險(xiǎn),但前者的某些風(fēng)險(xiǎn)“差距”或?qū)ζ涞膿?dān)憂,是人工智能所獨(dú)有的。而這些差距正是AI RMF想要彌補(bǔ)解決的。
AI利益相關(guān)群體和技術(shù)特征
NIST將四個(gè)利益相關(guān)群體確定為該框架的預(yù)期受眾:人工智能系統(tǒng)利益相關(guān)者、運(yùn)營(yíng)商和評(píng)估者、外部利益相關(guān)者和公眾。采用三級(jí)特征分類法,在識(shí)別和管理人工智能系統(tǒng)相關(guān)風(fēng)險(xiǎn)的綜合方法中應(yīng)考慮這些特征:技術(shù)特征、社會(huì)技術(shù)特征和指導(dǎo)原則。
技術(shù)特征是指人工智能系統(tǒng)設(shè)計(jì)者和開發(fā)者直接控制的因素,可以使用標(biāo)準(zhǔn)評(píng)估標(biāo)準(zhǔn)來(lái)衡量,如準(zhǔn)確性、可靠性和彈性。社會(huì)技術(shù)特征指人工智能系統(tǒng)在個(gè)人、群體和社會(huì)環(huán)境中的使用和感知方式,如“可解釋性”、隱私、安全和管理歧視。在AI RMF分類法中,指導(dǎo)原則指的是更廣泛的社會(huì)規(guī)范和價(jià)值觀,表明了公平、問(wèn)責(zé)和透明度等社會(huì)優(yōu)先事項(xiàng)。
與其他NIST框架一樣,AI RMF核心包含AI風(fēng)險(xiǎn)管理活動(dòng)的三個(gè)要素:功能、類別和子類別。功能是為了映射、測(cè)量、管理和治理人工智能風(fēng)險(xiǎn)。盡管AI RMF預(yù)期通過(guò)概要文件為特定用例提供上下文,但該任務(wù)以及計(jì)劃的實(shí)踐指南已被推遲到以后的草案中。
在3月中旬發(fā)布框架草案后,NIST舉行了為期三天的研討會(huì),討論人工智能RMF的各個(gè)方面,包括深入探討如何減輕人工智能技術(shù)中的有害偏見(歧視)。以下是研討會(huì)中的一些觀點(diǎn):
繪制人工智能風(fēng)險(xiǎn):上下文環(huán)境很重要
卡內(nèi)基梅隆大學(xué)的研究人員Rayid Ghani在NIST的研討會(huì)上聲稱,在繪制人工智能風(fēng)險(xiǎn)圖時(shí),“我們?nèi)匀恍枰宄舷挛?、用例和部署?chǎng)景。較為理想化的是,所有這些事情都應(yīng)該在構(gòu)建系統(tǒng)時(shí)發(fā)生。”
美國(guó)醫(yī)療保險(xiǎn)計(jì)劃副總裁Marilyn Zigmund Luke告訴與會(huì)者,“考慮到不同環(huán)境和結(jié)構(gòu)的多樣性,個(gè)人和組織的風(fēng)險(xiǎn)當(dāng)然會(huì)不同。我認(rèn)為應(yīng)該從評(píng)估風(fēng)險(xiǎn)的角度來(lái)理解所有這些風(fēng)險(xiǎn),你必須從零開始,去建立一些不同的參數(shù)?!?/p>
測(cè)量人工智能活動(dòng):需要新技術(shù)
由于人工智能系統(tǒng)中固有的社會(huì)政治倫理和習(xí)俗的復(fù)雜性,人工智能相關(guān)活動(dòng)的測(cè)量仍處于初級(jí)階段。圣地亞哥加利福尼亞大學(xué)的David Danks認(rèn)為:“測(cè)量功能中的很大一部分實(shí)質(zhì)上是交給人去了解的。在這種特定的背景下,歧視味著什么?相關(guān)的價(jià)值觀是什么?因?yàn)?,風(fēng)險(xiǎn)從根本上來(lái)說(shuō)是對(duì)組織或人類價(jià)值觀的威脅,價(jià)值觀很難確定?!?/p>
人工智能安全與研究公司Anthropic的聯(lián)合創(chuàng)始人杰克·克拉克表示,人工智能的出現(xiàn)產(chǎn)生了對(duì)新指標(biāo)和測(cè)量方法的需求,理想的情況是將其融入人工智能技術(shù)本身的創(chuàng)造中?!艾F(xiàn)代人工智能技術(shù)的挑戰(zhàn)之一是,需要設(shè)計(jì)新的測(cè)量技術(shù),并與技術(shù)本身共同開發(fā)。”
管理人工智能風(fēng)險(xiǎn):培訓(xùn)數(shù)據(jù)需要升級(jí)
AI RMF的管理內(nèi)容解決繪制和測(cè)量的風(fēng)險(xiǎn),以最大限度地提高效益和減少不利影響。但ParityAI的首席技術(shù)官陳家豪表示,數(shù)據(jù)質(zhì)量問(wèn)題可能會(huì)阻礙人工智能的風(fēng)險(xiǎn)管理?!爱?dāng)下的模型培訓(xùn)數(shù)據(jù),可用性不一定適用于現(xiàn)實(shí)世界,因?yàn)樗赡芤呀?jīng)過(guò)時(shí)了幾年。我們必須考慮培訓(xùn)數(shù)據(jù)是否真的反映了當(dāng)今世界的狀態(tài)?!?/p>
Adobe倫理創(chuàng)新總監(jiān)Grace Yee說(shuō),“對(duì)于我們來(lái)說(shuō),提供世界上最好的技術(shù)來(lái)創(chuàng)造數(shù)字體驗(yàn)已經(jīng)不夠了。我們希望確保我們的技術(shù)是為包容性而設(shè)計(jì)的,并尊重我們的客戶、社區(qū)和Adobe價(jià)值觀。具體來(lái)說(shuō),我們正在開發(fā)新的系統(tǒng)和流程,以評(píng)估我們的人工智能是否在制造有害的偏見?!?/p>
紐約大學(xué)法學(xué)院的文森特·索瑟蘭提出,使用擁有預(yù)測(cè)能力的警務(wù)工具可能會(huì)出現(xiàn)很大的問(wèn)題。“這些人工智能系統(tǒng)部署在整個(gè)刑事系統(tǒng)中,從確定犯罪者到何時(shí)釋放罪犯。但直到最近,人們還沒(méi)有從根本上認(rèn)識(shí)到,這些工具所依賴的數(shù)據(jù)以及這些工具的運(yùn)作方式實(shí)際上有助于加劇種族不平等,并有助于放大刑事系統(tǒng)本身的弊端。”
人工智能治理:很少有組織這么做
在人工智能治理政策方面,bnh.ai的科研人員帕特里克·霍爾表示,在大型消費(fèi)金融組織和其他幾個(gè)高監(jiān)管的領(lǐng)域之外,人工智能的使用沒(méi)有正式的治理指導(dǎo),因此公司只能自己解決這些棘手的治理問(wèn)題。
微軟首席人工智能負(fù)責(zé)人Natasha Crampton:“當(dāng)你的治理方法過(guò)于分散時(shí),失敗的跡象就會(huì)顯現(xiàn)出來(lái)。在這種情況下,各團(tuán)隊(duì)希望將人工智能模型部署到生產(chǎn)中,但他們只是采用自己的流程和結(jié)構(gòu),相互之間幾乎沒(méi)有協(xié)調(diào)?!?/p>
富國(guó)銀行執(zhí)行副總裁兼企業(yè)模型風(fēng)險(xiǎn)主管Agus Sudjianto也強(qiáng)調(diào)了高層對(duì)人工智能風(fēng)險(xiǎn)治理的重要性?!叭绻斯ぶ悄茇?fù)責(zé)人或管理人員沒(méi)有地位、信息來(lái)源和高層的支持,談不上治理?!?/p>
埃森哲云首席技術(shù)師Teresa Tung強(qiáng)調(diào),所有企業(yè)都需要關(guān)注人工智能?!叭蚺琶?000內(nèi)的公司中大約一半的公司在其財(cái)報(bào)上都提及了人工智能。這是每個(gè)企業(yè)都需要認(rèn)識(shí)到的。”
與NIST開發(fā)的其他風(fēng)險(xiǎn)管理框架(如網(wǎng)絡(luò)安全框架)一樣,最終的AI RMF可能會(huì)對(duì)私營(yíng)和公共部門產(chǎn)生廣泛的影響。NIST正在向社會(huì)征求針對(duì)草案的意見,截止日期為2022年4月29日。
當(dāng)前名稱:解決AI安全問(wèn)題:NIST人工智能風(fēng)險(xiǎn)管理框架
文章網(wǎng)址:http://www.5511xx.com/article/cdhcjii.html


咨詢
建站咨詢
