資源描述:
《人工智能應(yīng)用中的這些弱點(diǎn)不可忽視.doc》由會員上傳分享,免費(fèi)在線閱讀,更多相關(guān)內(nèi)容在學(xué)術(shù)論文-天天文庫。
1、人工智能應(yīng)用中的這些弱點(diǎn)不可忽視 人工智能正在推動一場新的工業(yè)革命,其影響范圍小則涉及個人生活,大則影響國家安全,讓人們在期待的同時,也帶著些許忐忑。事實(shí)上,當(dāng)前人工智能的發(fā)展?fàn)顩r與未來學(xué)家或科幻電影中作出的設(shè)想并不完全一樣?! ∪斯ぶ悄軕?yīng)用中的這些弱點(diǎn)不可忽視 人工智能正在推動一場新的工業(yè)革命,其影響范圍小則涉及個人生活,大則影響國家安全,讓人們在期待的同時,也帶著些許忐忑。事實(shí)上,當(dāng)前人工智能的發(fā)展?fàn)顩r與未來學(xué)家或科幻電影中作出的設(shè)想并不完全一樣?! ≌鎸?shí)進(jìn)展到了哪一步 當(dāng)前,越來越多的行業(yè)都在發(fā)展人工智能技術(shù),新概念和新算法層出不窮,但人工智能的主要應(yīng)用領(lǐng)域是圖像識別和
2、語言翻譯,圖像識別領(lǐng)域進(jìn)展要優(yōu)于語言翻譯,前者在某些指標(biāo)上超過了人類水平,但語言翻譯能力還不及人類,這是該技術(shù)進(jìn)展的基本情況。 具體說,人工智能可以做以下四個方面的工作?! 〉谝?,數(shù)據(jù)分類。人工智能可對圖像或聲音等數(shù)據(jù)進(jìn)行分類,安防領(lǐng)域中對攝像頭采集數(shù)據(jù)的處理及醫(yī)療影像識別和診斷,這兩個領(lǐng)域發(fā)展迅猛,產(chǎn)業(yè)前景廣闊?! 〉诙?,異常探測。人工智能可幫助發(fā)現(xiàn)欺詐性金融交易或新惡意軟件等異常行為,可用于實(shí)時監(jiān)控大規(guī)模數(shù)據(jù),央行及其他市場金融機(jī)構(gòu)正致力于類似應(yīng)用?! 〉谌A(yù)測。從海量數(shù)據(jù)中發(fā)現(xiàn)某種規(guī)律后,人工智能可基于統(tǒng)計特征對未來行為作出預(yù)測,這在搜索引擎的自動填充、視頻和網(wǎng)購平臺的產(chǎn)
3、品推薦等領(lǐng)域得到廣泛應(yīng)用,還可用于天氣預(yù)報?! 〉谒?,優(yōu)化。人工智能可對復(fù)雜的系統(tǒng)和任務(wù)進(jìn)行優(yōu)化,例如美國“深度思維”公司使用機(jī)器學(xué)習(xí)優(yōu)化了谷歌數(shù)據(jù)中心的能源效率,節(jié)約了40%用于冷卻的能量,使能效整體提升了15%。 綜上,人工智能確實(shí)具有諸多優(yōu)勢,其反應(yīng)時間比人類更快,在不少領(lǐng)域和場景下,有優(yōu)于人類的精確性、可靠性和敏捷性,也比人類更有耐心和警覺性,同時還能獨(dú)立于人類進(jìn)行工作。應(yīng)用中不可忽視的弱點(diǎn) 不容忽視的是,當(dāng)前的人工智能技術(shù)也存在弱點(diǎn),美國智庫“新美國安全中心”最近發(fā)布《人工智能:每個決策者需要知道什么》報告,提示人工智能的一些弱點(diǎn)可能對國家安全等領(lǐng)域造成巨大影響。
4、第一,脆弱性。目前的人工智能系統(tǒng)還無法超出場景或語境理解行為,其在下棋或游戲等有固定規(guī)則的范圍內(nèi)不會暴露出這一弱點(diǎn),而一旦場景發(fā)生變化或這種變化超出一定范圍,人工智能可能就立刻無法“思考”?! 〉诙?,不可預(yù)測性。用戶無法預(yù)測人工智能會做出何種決策,這既是一種優(yōu)勢,也會帶來風(fēng)險,因?yàn)橄到y(tǒng)可能會做出不符合設(shè)計者初衷的決策?! 〉谌蹩山忉屝?。人工智能或許可以幫助人類做出好的決策,但決策理由目前仍然是一個“黑箱”。例如,圖像識別能力可以發(fā)現(xiàn)圖片中的校車,但無法解釋哪些圖像特征讓它作出這種判斷,而在醫(yī)學(xué)診斷領(lǐng)域,診斷的理由往往是重要的。 第四,安全問題和漏洞。機(jī)器會重結(jié)果而輕過程,通過
5、找到系統(tǒng)漏洞,實(shí)現(xiàn)字面意義上的目標(biāo),但其采用的方法不一定是設(shè)計者的初衷。例如,網(wǎng)站會推薦一些極端主義視頻,因?yàn)榇碳ば詢?nèi)容可以增加瀏覽時間。再如,網(wǎng)絡(luò)安全系統(tǒng)會判斷人是導(dǎo)致破壞性軟件植入的主要原因,于是索性不允許人進(jìn)入系統(tǒng)。 第六,系統(tǒng)事故。在算法不能共享的對抗性環(huán)境中,系統(tǒng)性錯誤很容易發(fā)生,導(dǎo)致做出無法估量的決策。比如,在國家安全領(lǐng)域,兩種相互對抗的算法為了獲得優(yōu)勢會采用某些導(dǎo)致毀滅性后果的行為,尤其在網(wǎng)絡(luò)安全和電子戰(zhàn)過程中,對抗性決策會非常迅速,人類幾乎來不及叫停。 第七,人機(jī)交互失敗。盡管讓機(jī)器提供建議,由人類做最后決策是解決人工智能某些弱點(diǎn)的常用方法,但由于決策者對系統(tǒng)局
6、限性或系統(tǒng)反饋的認(rèn)知能力不同,這一問題并不能得到根本解決。2016年特斯拉自動駕駛汽車撞毀事故中,人類操作員就沒能理解系統(tǒng)給出的提示而發(fā)生致命性事故,在軍事、邊境安全、交通安全、執(zhí)法等諸多領(lǐng)域都面臨類似挑戰(zhàn)?! 〉诎耍瑱C(jī)器學(xué)習(xí)漏洞可被對手利用。在對抗性過程中,對手還會釋放有毒數(shù)據(jù)或利用人工智能行為方式的某些漏洞發(fā)起攻擊,目前還沒有抵御這種攻擊的有效辦法。