人工智能遭遇的偏見 算法偏見帶來的問題.doc

人工智能遭遇的偏見 算法偏見帶來的問題.doc

ID:27839941

大?。?10.50 KB

頁數(shù):6頁

時間:2018-12-06

人工智能遭遇的偏見 算法偏見帶來的問題.doc_第1頁
人工智能遭遇的偏見 算法偏見帶來的問題.doc_第2頁
人工智能遭遇的偏見 算法偏見帶來的問題.doc_第3頁
人工智能遭遇的偏見 算法偏見帶來的問題.doc_第4頁
人工智能遭遇的偏見 算法偏見帶來的問題.doc_第5頁
資源描述:

《人工智能遭遇的偏見 算法偏見帶來的問題.doc》由會員上傳分享,免費在線閱讀,更多相關(guān)內(nèi)容在學(xué)術(shù)論文-天天文庫。

1、人工智能遭遇的偏見算法偏見帶來的問題  偏見是人工智能面臨一個挑戰(zhàn),主要是來自算法偏見,當(dāng)然偏見并不止這些。與人類不同,算法不能撒謊,那么產(chǎn)生結(jié)果的不同必將是數(shù)據(jù)帶來的問題。人工智能算法及系統(tǒng)的測試與驗證,如何避免人工智能的偏見呢?  人們都曾看過機器控制了世界而人類被毀滅的電影。好在這些電影是娛樂性的,而且人們都認(rèn)為這些場景是不會發(fā)生的。然而,一個更應(yīng)該關(guān)注的現(xiàn)實問題是:算法偏見?! ∪斯ぶ悄茉庥龅钠娝惴ㄆ妿淼膯栴}  偏見是人工智能面臨一個挑戰(zhàn),主要是來自算法偏見,當(dāng)然偏見并不止這些。與人類不同,算法不能撒謊,那么產(chǎn)生結(jié)果的不同必將是數(shù)據(jù)帶來

2、的問題。人工智能算法及系統(tǒng)的測試與驗證,如何避免人工智能的偏見呢?  人們都曾看過機器控制了世界而人類被毀滅的電影。好在這些電影是娛樂性的,而且人們都認(rèn)為這些場景是不會發(fā)生的。然而,一個更應(yīng)該關(guān)注的現(xiàn)實問題是:算法偏見?! ∪斯ぶ悄茉庥龅钠娝惴ㄆ妿淼膯栴}  偏見是人工智能面臨一個挑戰(zhàn),主要是來自算法偏見,當(dāng)然偏見并不止這些。與人類不同,算法不能撒謊,那么產(chǎn)生結(jié)果的不同必將是數(shù)據(jù)帶來的問題。人工智能算法及系統(tǒng)的測試與驗證,如何避免人工智能的偏見呢?  人們都曾看過機器控制了世界而人類被毀滅的電影。好在這些電影是娛樂性的,而且人們都認(rèn)為這些場景是不

3、會發(fā)生的。然而,一個更應(yīng)該關(guān)注的現(xiàn)實問題是:算法偏見?! ∪斯ぶ悄茉庥龅钠娝惴ㄆ妿淼膯栴}  偏見是人工智能面臨一個挑戰(zhàn),主要是來自算法偏見,當(dāng)然偏見并不止這些。與人類不同,算法不能撒謊,那么產(chǎn)生結(jié)果的不同必將是數(shù)據(jù)帶來的問題。人工智能算法及系統(tǒng)的測試與驗證,如何避免人工智能的偏見呢?  人們都曾看過機器控制了世界而人類被毀滅的電影。好在這些電影是娛樂性的,而且人們都認(rèn)為這些場景是不會發(fā)生的。然而,一個更應(yīng)該關(guān)注的現(xiàn)實問題是:算法偏見?! ?算法偏見帶來的問題  所謂“算法偏見”是指在在看似沒有惡意的程序設(shè)計中帶著創(chuàng)建者的偏見,或者所采用的數(shù)據(jù)是

4、帶有偏見的。結(jié)果當(dāng)然是帶來了各種問題,例如,被曲解的谷歌搜索,合格的候選人被禁止進入醫(yī)學(xué)院,聊天機器人在推特上發(fā)布種族主義和性別歧視信息等?! ∷惴ㄆ娫斐傻淖罴值膯栴}是,從事編程的工程師即使主觀上沒有種族主義、性別歧視、年齡歧視等傾向,也有可能造成偏見。人工智能(AI,ArTIficialIntelligence)本質(zhì)上就是為了自學(xué)而設(shè)計的,有時它的確會出錯。當(dāng)然,人們可以在事后做出調(diào)整,但最好的解決辦法是一開始就防止它發(fā)生。那么,怎樣才能讓人工智能遠(yuǎn)離偏見呢?  具有諷刺意味的是人工智能最令人興奮的可能性之一就是能夠搭建一個沒有人類偏見的世界。

5、比如當(dāng)涉及到招聘時,一種算法可以讓男性和女性在申請同一份工作時獲得平等的待遇,或者在警務(wù)工作中防止發(fā)生種族偏見。  不管人們是否意識到,人類創(chuàng)造的機器確實反映了人們怎樣是看待世界的,因此也會有類似的刻板印象和世界觀。由于人工智能越來越深入到生活中,人類必須重視它。2偏見的分類  人工智能面臨的另外一個挑戰(zhàn)是,偏見不是以一種形式出現(xiàn)的,而是有各種類型的。這包括交互偏見、潛意識偏見、選擇偏見、數(shù)據(jù)驅(qū)動的偏見和確認(rèn)偏見?!  敖换テ姟笔侵赣脩粲捎谧约号c算法的交互方式而使算法產(chǎn)生的偏見。當(dāng)機器被設(shè)置向周圍環(huán)境學(xué)習(xí)時,它們不能決定要保留或者丟棄哪些數(shù)據(jù),什么

6、是對的,什么是錯的。相反,它們只能使用提供給它們的數(shù)據(jù)——不論是好的、壞的,還是丑的,并在此基礎(chǔ)上做出決策。前面提到的聊天機器人Tay便是這類偏見的一個例子。它是受到一個網(wǎng)絡(luò)聊天社區(qū)的影響而變得偏種族主義了?!  皾撘庾R偏見”是指算法錯誤地把觀念與種族和性別等因素聯(lián)系起來。例如,當(dāng)搜索一名醫(yī)生的圖像時,人工智能會把男性醫(yī)生的圖像呈現(xiàn)給一名女性,或者在搜索護士時反過來操作?!  斑x擇偏見”是指用于訓(xùn)練算法的數(shù)據(jù)被傾向性地用于表示一個群體或者分組,從而使該算法對這些群體有利,而代價是犧牲其他群體。以招聘為例,如果人工智能被訓(xùn)練成只識別男性的簡歷,那么女性

7、求職者在申請過程中就很難成功?!  皵?shù)據(jù)驅(qū)動的偏見”是指用來訓(xùn)練算法的原始數(shù)據(jù)已經(jīng)存在偏見了。機器就像孩子一樣:他們不會質(zhì)疑所給出的數(shù)據(jù),而只是尋找其中的模式。如果數(shù)據(jù)在一開始就被曲解,那么其輸出的結(jié)果也將反映出這一點。  最后一類是“確認(rèn)偏見”,這類似于數(shù)據(jù)驅(qū)動的偏見,偏向于那些先入為主的信息。它影響人們怎樣收集信息,以及人們怎樣解讀信息。例如,如果自己覺得8月份出生的人比其他時候出生的更富有創(chuàng)造性,那就會偏向于尋找強化這種想法的數(shù)據(jù)?! ‘?dāng)我們了解到這么多偏見的例子滲入到人工智能系統(tǒng)時,似乎會引起我們的擔(dān)憂。但重要的是要認(rèn)清事實,記住這個世界本身

8、就是有偏見的,因此,在某些情況下,人們對從人工智能中得到的結(jié)果并不奇怪。然而,并不應(yīng)該如此,人們需要一個對人

當(dāng)前文檔最多預(yù)覽五頁,下載文檔查看全文

此文檔下載收益歸作者所有

當(dāng)前文檔最多預(yù)覽五頁,下載文檔查看全文
溫馨提示:
1. 部分包含數(shù)學(xué)公式或PPT動畫的文件,查看預(yù)覽時可能會顯示錯亂或異常,文件下載后無此問題,請放心下載。
2. 本文檔由用戶上傳,版權(quán)歸屬用戶,天天文庫負(fù)責(zé)整理代發(fā)布。如果您對本文檔版權(quán)有爭議請及時聯(lián)系客服。
3. 下載前請仔細(xì)閱讀文檔內(nèi)容,確認(rèn)文檔內(nèi)容符合您的需求后進行下載,若出現(xiàn)內(nèi)容與標(biāo)題不符可向本站投訴處理。
4. 下載文檔時可能由于網(wǎng)絡(luò)波動等原因無法下載或下載錯誤,付費完成后未能成功下載的用戶請聯(lián)系客服處理。