霍金認為:人工智能會超越人類智能,進而消滅人類.doc

霍金認為:人工智能會超越人類智能,進而消滅人類.doc

ID:28157269

大小:310.00 KB

頁數(shù):4頁

時間:2018-12-08

霍金認為:人工智能會超越人類智能,進而消滅人類.doc_第1頁
霍金認為:人工智能會超越人類智能,進而消滅人類.doc_第2頁
霍金認為:人工智能會超越人類智能,進而消滅人類.doc_第3頁
霍金認為:人工智能會超越人類智能,進而消滅人類.doc_第4頁
資源描述:

《霍金認為:人工智能會超越人類智能,進而消滅人類.doc》由會員上傳分享,免費在線閱讀,更多相關內(nèi)容在學術(shù)論文-天天文庫。

1、霍金認為:人工智能會超越人類智能,進而消滅人類  為什么谷歌人在科技是否服務軍事問題上這樣敏感?  在社會公共領域,沒有什么比政治更能牽動人的敏感神經(jīng)了。軍隊作為保證政治順利運行的工具,成為政權(quán)賴以生存的暴力基礎??萍寂c軍事,本來沒有明確的界限,人們發(fā)明火藥,用在敵我廝殺的戰(zhàn)場上,指南針也曾用于戰(zhàn)事行軍尋找方向位置。  上萬年來,無論東西,人類所發(fā)起的戰(zhàn)爭難以計數(shù),但很少有人懷疑把箭頭磨尖從而更有效的刺殺敵人是否太過殘忍,以及將更具殺傷力的炸藥用于戰(zhàn)場是否有悖人倫?! ∫恢币詠?,人類歷史都在戰(zhàn)爭的非合作博弈,以及和平的合作博弈中向前演進,科技在軍事中的作用也一直在人類的

2、可控范圍之內(nèi)。但在進入現(xiàn)代之后,核武器的發(fā)明使得科學已經(jīng)不僅僅是軍事范疇,而成為了人倫社會領域都不可忽視的重要力量?! 】萍荚趯τ谌祟惿鐣目刂茩?quán)上,已經(jīng)有質(zhì)變了嗎?霍金認為人工智能會超越人類智能,進而消滅人類,但更多的科學家則認為科技無法產(chǎn)生意識的本質(zhì)決定人類被科技毀滅是無稽之談?! ∧敲?,在谷歌與國防部是否合作這件事情上,人們反對的聲音究竟是憚于國防科技過于強大,會有以霸權(quán)殘害無辜的潛在危險?還是在于科技本身可能對人類帶來的毀滅力量,與兵器結(jié)合后會更加恐怖到難以收拾?  自從這件事情開始爆出,谷歌從最初3100多名員工“聯(lián)名上書”,到目前有12個人提出離職,如果說簽

3、名者只是本能認為科技會助紂為虐,那么這12個絕不妥協(xié)的人,或許在思考科技與軍事結(jié)合之后的毀滅性后果?! ’傋拥摹豆I(yè)社會及其未來》和天才的《未來簡史》  事實上,更有的極端的“天才”或者稱為“瘋子”為了堅持“科技威脅論”甚至為非作歹??ㄐ了够羌又莶死中W钅贻p的助教,然而,似錦前程卻因為價值觀的重塑而逆轉(zhuǎn)。原本熱愛數(shù)學,崇尚科學的他莫名陷入極端反科學的對立面。辭去教職之后,他進入深山,長期與自然親近,人類疏遠,完全自我的生活讓他在理性上更加懷疑科技,而情感上與社會更加疏遠?! ∽罱K他因違背人倫和法律底線寄炸藥造成科研院所和科技企業(yè)重大傷亡而被判終身監(jiān)禁,雖然這是一

4、個天才最終墮落為瘋子的故事,但他要求FBI刊登在《華盛頓郵報》和《紐約時報》上的論文,卻并非瘋癲之作?!    稌r代周刊》把卡辛斯基印在封面上,叫他“天才瘋子”  在論文的開始,他說到:“人類太輕易地讓自己陷入這樣一種對機器強烈依賴的境地,以至于到了最后,他們沒有別的選擇,只能完全聽從機器的決定?!薄 ≡谶@篇名為《工業(yè)社會及其未來》的論文中,卡辛斯基斷言,工業(yè)化時代的人類,如果不是直接被高智能化的機器控制,就是被機器背后的少數(shù)精英控制。如果精英們是殘酷的,他們就會直接消滅大部分人類;如果他們?nèi)蚀?,他們就會利用宣傳手段或者生物學技術(shù),降低人口出生率,直到大部分人類滅絕,無

5、論使用哪一種方法,地球都會歸于精英之手。

當前文檔最多預覽五頁,下載文檔查看全文

此文檔下載收益歸作者所有

當前文檔最多預覽五頁,下載文檔查看全文
溫馨提示:
1. 部分包含數(shù)學公式或PPT動畫的文件,查看預覽時可能會顯示錯亂或異常,文件下載后無此問題,請放心下載。
2. 本文檔由用戶上傳,版權(quán)歸屬用戶,天天文庫負責整理代發(fā)布。如果您對本文檔版權(quán)有爭議請及時聯(lián)系客服。
3. 下載前請仔細閱讀文檔內(nèi)容,確認文檔內(nèi)容符合您的需求后進行下載,若出現(xiàn)內(nèi)容與標題不符可向本站投訴處理。
4. 下載文檔時可能由于網(wǎng)絡波動等原因無法下載或下載錯誤,付費完成后未能成功下載的用戶請聯(lián)系客服處理。