:::

焦點(diǎn)新聞

打破AI黑盒子-可解釋性的人臉辨識(shí)模組

更新日期:109年5月25日

圖1:(左起):人工智慧技術(shù)暨全幅健康照護(hù)聯(lián)合研究中心(臺(tái)大AI中心)杜維洲執(zhí)行長(zhǎng)、科技部前瞻及應(yīng)用科技司楊琇雅司長(zhǎng)、科技部陳良基部長(zhǎng)、國(guó)立臺(tái)灣大學(xué)資訊工程學(xué)系徐宏民教授(同為臺(tái)大AI中心轄下之研究團(tuán)隊(duì))、人工智慧技術(shù)暨全幅健康照護(hù)聯(lián)合研究中心(臺(tái)大AI中心)主任陳信希教授圖2:陳良基部長(zhǎng)現(xiàn)場(chǎng)體驗(yàn)

(左起):人工智慧技術(shù)暨全幅健康照護(hù)聯(lián)合研究中心(臺(tái)大AI中心)杜維洲執(zhí)行長(zhǎng)、科技部前瞻及應(yīng)用科技司楊琇雅司長(zhǎng)、科技部陳良基部長(zhǎng)、國(guó)立臺(tái)灣大學(xué)資訊工程學(xué)系徐宏民教授(同為臺(tái)大AI中心轄下之研究團(tuán)隊(duì))、人工智慧技術(shù)暨全幅健康照護(hù)聯(lián)合研究中心(臺(tái)大AI中心)主任陳信希教授

陳良基部長(zhǎng)現(xiàn)場(chǎng)體驗(yàn)

科技部於5月11日召開(kāi)記者會(huì),邀請(qǐng)臺(tái)灣大學(xué)人工智慧技術(shù)暨全幅健康照護(hù)聯(lián)合研究中心(以下簡(jiǎn)稱臺(tái)大AI中心)轄下的徐宏民教授團(tuán)隊(duì),發(fā)表該團(tuán)隊(duì)在科技部的支持下所開(kāi)發(fā)出的可解釋性人工智慧(Explainable AI ,XAI)模組xCos,該模組除了具備高辨識(shí)率的人臉辨識(shí)能力外,還可有條理的解釋AI產(chǎn)出結(jié)果的原因。這項(xiàng)技術(shù)不僅可協(xié)助國(guó)內(nèi)外相關(guān)業(yè)者開(kāi)發(fā)AI辨識(shí)技術(shù)、明白AI決策建議背後的理由,更能提升人類對(duì)於使用AI的信任度。

科技部部長(zhǎng)陳良基表示,科技部自2017年宣布人工智慧(AI)科研戰(zhàn)略,引導(dǎo)臺(tái)灣成為AI發(fā)展重鎮(zhèn),續(xù)於2018年起補(bǔ)助臺(tái)灣四所頂尖大學(xué)成立AI創(chuàng)新研究中心,包含臺(tái)灣大學(xué)(核心技術(shù)與生技醫(yī)療)、清華大學(xué)(智慧製造)、交通大學(xué)(智慧服務(wù))及成功大學(xué)(生技醫(yī)療)。歷經(jīng)2年多的醞釀與實(shí)踐後,臺(tái)大AI中心轄下的徐宏民教授團(tuán)隊(duì)打造出能嵌合在各個(gè)人臉辨識(shí)模型的「可解釋性AI模組xCos」,該研究成果在近年世界各國(guó)強(qiáng)調(diào)AI透明度的當(dāng)下,讓系統(tǒng)直接告訴我們?nèi)四樑嗅尩南嗨贫燃氨翅嵩颍瑏K正將XAI技術(shù)擴(kuò)展到其他關(guān)鍵性的人工智慧決策,包括能源、醫(yī)學(xué)、工業(yè)製造等領(lǐng)域。

世界頂尖的人臉辨識(shí)技術(shù)再精進(jìn)

徐宏民教授團(tuán)隊(duì)在科技部的長(zhǎng)期支持下,自2011年便開(kāi)發(fā)出第一套行動(dòng)裝置上的人臉?biāo)褜は到y(tǒng),之後不斷自我挑戰(zhàn)包括跨年紀(jì)的臉部辨識(shí)能力、偽裝人臉辨識(shí)等,前於2018年在全球三大電腦視覺(jué)頂尖會(huì)議之一的CVPR偽裝人臉辨識(shí)競(jìng)賽(Disguised Faces in the Wild)中,以辨識(shí)率唯一超過(guò)9成之姿,技?jí)喝盒蹔Z下全球冠軍。

徐宏民教授表示,團(tuán)隊(duì)過(guò)去三年透過(guò)產(chǎn)學(xué)合作,協(xié)助幾家軟硬體公司開(kāi)發(fā)人臉辨識(shí)產(chǎn)品。在深度模型設(shè)計(jì)過(guò)程中會(huì)遭遇AI人臉辨識(shí)結(jié)果跟我們大腦直覺(jué)無(wú)法吻合的案例,不曉得判斷的依據(jù)為何。為解決這樣的問(wèn)題,團(tuán)隊(duì)花了一年多的時(shí)間開(kāi)發(fā)了可解釋性人工智慧(Explainable AI ,XAI)模組xCos,可以成功解釋為何兩張人臉會(huì)辨識(shí)為同一人(或另一人)的原因,提出AI黑盒子的決策依據(jù)、協(xié)助人臉辨識(shí)產(chǎn)品開(kāi)發(fā),同時(shí)xCos會(huì)自動(dòng)留意人臉不自然的表面而專注在真實(shí)以及具辨識(shí)能力的人臉位置,進(jìn)而達(dá)到偽裝人臉辨識(shí)的效果。且經(jīng)過(guò)測(cè)試,就算搭配不同的人臉辨識(shí)軟體,亦能發(fā)揮同樣的功能。

揭開(kāi)AI的黑盒子,讓AI來(lái)告訴你「它」的理由

陳良基部長(zhǎng)提到,人類總是藉由不斷的提問(wèn)「為什麼」來(lái)釐清問(wèn)題、尋求突破與找到答案,這也是人類科技能進(jìn)步的原因。早期的AI,是基於規(guī)則系統(tǒng)(rule-based system)由科學(xué)家提供各種判斷依據(jù),讓電腦依流程判斷出結(jié)論,例如決策樹(shù)等,此方法可以輕易的回頭找出電腦產(chǎn)出成果的原因,具有高度的可解釋性。但近年AI已進(jìn)步到使用深度學(xué)習(xí)等類神經(jīng)網(wǎng)絡(luò),在快速且大量的消化各式資料後,由電腦自己訂規(guī)則,憑著數(shù)以千萬(wàn)計(jì)的條件產(chǎn)出更高精準(zhǔn)度的答案,但逐漸的,人們開(kāi)始注意到AI無(wú)法詳細(xì)說(shuō)明「它」做出決定的推理過(guò)程與原因,在得不到滿意的回答之前,將讓人駐足不前,不敢放心地運(yùn)用AI解決問(wèn)題,甚至質(zhì)疑其決策行為。

根據(jù)國(guó)際知名公司資誠(chéng)聯(lián)合會(huì)計(jì)師事務(wù)所(PricewaterhouseCoopers,PwC) 指出,人工智慧具有15兆美元的市值,但當(dāng)前的關(guān)卡就是AI缺乏解釋性?,F(xiàn)階段的AI只看到了輸入的資料及輸出的結(jié)果,中間的判斷依據(jù)與過(guò)程難以捉摸,就如黑盒子般,倘能理解AI如何做出判斷,確認(rèn)決策的合理性,未來(lái)才能更進(jìn)一步改善與強(qiáng)化模型可靠性,因此,可解釋性人工智慧(XAI)成了近年來(lái)各國(guó)AI研究領(lǐng)域的趨勢(shì)之一,包括美國(guó)國(guó)防高等研究計(jì)劃署(DARPA)於2018年宣布投入20億美金推動(dòng)的AI計(jì)畫中,AI的可解釋性就是其中重要的一環(huán)。

可解釋性與高相容性,加速相關(guān)應(yīng)用技術(shù)開(kāi)發(fā)與產(chǎn)業(yè)提升

陳良基部長(zhǎng)補(bǔ)充,「可解釋性的人工智慧」無(wú)疑是國(guó)際上AI發(fā)展的重要目標(biāo),科技部已於去(2019)年9月公布人工智慧科研發(fā)展指引中強(qiáng)調(diào)AI的「透明性與可追溯性」及「可解釋性」;另歐盟今(2020)年2月份發(fā)表的人工智慧白皮書(WHITE PAPER On Artificial Intelligence - A European approach to excellence and trust)也提及缺乏信任是阻礙AI廣泛應(yīng)用的主要原因,因此未來(lái)AI發(fā)展的重點(diǎn)須透過(guò)理解AI決策成因,來(lái)強(qiáng)化運(yùn)作流程的透明度,進(jìn)而讓普世大眾對(duì)AI感到信賴與安心。

此外,徐宏民教授說(shuō),這套XAI模組xCos除了可供末端的使用者了解人臉辨識(shí)結(jié)果的原因外,更可協(xié)助開(kāi)發(fā)人員探究及檢視系統(tǒng)的運(yùn)作機(jī)制,該團(tuán)隊(duì)為加速技術(shù)擴(kuò)散與落地應(yīng)用,所研發(fā)之可解釋性AI模組xCos可與其他人臉辨識(shí)系統(tǒng)作相互搭配,團(tuán)隊(duì)亦已將這項(xiàng)技術(shù)以O(shè)pen Source方式供國(guó)內(nèi)外產(chǎn)學(xué)研單位使用(https://github.com/ntubiolin/xcos),希望將其相關(guān)理念拓展至其他深度學(xué)習(xí)相關(guān)應(yīng)用中,同時(shí)也正將XAI技術(shù)擴(kuò)展到其他領(lǐng)域關(guān)鍵性的人工智慧決策系統(tǒng),如AI僅告知發(fā)電廠未來(lái)1小時(shí)是否要增加發(fā)電量,但XAI可以補(bǔ)充說(shuō)明是因?yàn)轭A(yù)測(cè)氣候的改變或今日有特殊節(jié)慶等;AI可以說(shuō)出X光片是否有肺炎徵兆,但XAI可更進(jìn)一步解釋判斷的依據(jù)以及指出病徵的位置,這些XAI的應(yīng)用,都可強(qiáng)化人民對(duì)AI的信任,更可協(xié)助系統(tǒng)開(kāi)發(fā)人員進(jìn)一步檢視AI判斷是否合理,便以改善與強(qiáng)化AI模型,進(jìn)而促進(jìn)國(guó)內(nèi)外AI技術(shù)與相關(guān)產(chǎn)業(yè)進(jìn)展。

捲置上方按鈕