谷歌研發(fā)AI系統(tǒng),自動(dòng)映射大腦神經(jīng)元.doc

谷歌研發(fā)AI系統(tǒng),自動(dòng)映射大腦神經(jīng)元.doc

ID:28144976

大?。?.43 MB

頁數(shù):11頁

時(shí)間:2018-12-08

谷歌研發(fā)AI系統(tǒng),自動(dòng)映射大腦神經(jīng)元.doc_第1頁
谷歌研發(fā)AI系統(tǒng),自動(dòng)映射大腦神經(jīng)元.doc_第2頁
谷歌研發(fā)AI系統(tǒng),自動(dòng)映射大腦神經(jīng)元.doc_第3頁
谷歌研發(fā)AI系統(tǒng),自動(dòng)映射大腦神經(jīng)元.doc_第4頁
谷歌研發(fā)AI系統(tǒng),自動(dòng)映射大腦神經(jīng)元.doc_第5頁
資源描述:

《谷歌研發(fā)AI系統(tǒng),自動(dòng)映射大腦神經(jīng)元.doc》由會(huì)員上傳分享,免費(fèi)在線閱讀,更多相關(guān)內(nèi)容在學(xué)術(shù)論文-天天文庫。

1、谷歌研發(fā)AI系統(tǒng),自動(dòng)映射大腦神經(jīng)元  AI能夠映射大腦神經(jīng)元。人類大腦包含大約860億個(gè)神經(jīng)元,并且一個(gè)立方毫米的神經(jīng)元可以產(chǎn)生超過1000TB的數(shù)據(jù)。由于其龐大的規(guī)模,繪制神經(jīng)系統(tǒng)內(nèi)部結(jié)構(gòu)的過程是計(jì)算密集和繁瑣的。為了加速這一過程,谷歌和德國馬克斯普朗克神經(jīng)生物學(xué)研究所的研究人員開發(fā)了一種基于深度學(xué)習(xí)的系統(tǒng),可以自動(dòng)映射大腦的神經(jīng)元。這是AI解決21世紀(jì)重大工程挑戰(zhàn)的又一成功例證。  谷歌AI負(fù)責(zé)人JeffDean演講時(shí)總愛用一張PPT,那就是用機(jī)器學(xué)習(xí)解決21世紀(jì)重大工程問題,其中就包括人腦逆向工程,谷歌和馬克思普朗克研究所等機(jī)構(gòu)合作,從理解大腦神經(jīng)網(wǎng)絡(luò)的圖像入手

2、,試圖重構(gòu)生物神經(jīng)網(wǎng)絡(luò)?! ≡谥暗膱?bào)告中,JeffDean提到他們提出了一種模擬生成神經(jīng)網(wǎng)絡(luò)的算法“Flood-FillingNetworks”,可以使用原始數(shù)據(jù),利用此前的預(yù)測,自動(dòng)跟蹤神經(jīng)傳導(dǎo)?! 〗裉?,描述相關(guān)研究的論文正式在NatureMethods發(fā)表,他們的方法不但能自動(dòng)分析大腦連接組數(shù)據(jù),還將準(zhǔn)確度提高了一個(gè)數(shù)量級,突破了當(dāng)前連接組學(xué)的一個(gè)重要瓶頸!  谷歌研發(fā)AI系統(tǒng),自動(dòng)映射大腦神經(jīng)元  AI能夠映射大腦神經(jīng)元。人類大腦包含大約860億個(gè)神經(jīng)元,并且一個(gè)立方毫米的神經(jīng)元可以產(chǎn)生超過1000TB的數(shù)據(jù)。由于其龐大的規(guī)模,繪制神經(jīng)系統(tǒng)內(nèi)部結(jié)構(gòu)的過程是計(jì)算

3、密集和繁瑣的。為了加速這一過程,谷歌和德國馬克斯普朗克神經(jīng)生物學(xué)研究所的研究人員開發(fā)了一種基于深度學(xué)習(xí)的系統(tǒng),可以自動(dòng)映射大腦的神經(jīng)元。這是AI解決21世紀(jì)重大工程挑戰(zhàn)的又一成功例證。  谷歌AI負(fù)責(zé)人JeffDean演講時(shí)總愛用一張PPT,那就是用機(jī)器學(xué)習(xí)解決21世紀(jì)重大工程問題,其中就包括人腦逆向工程,谷歌和馬克思普朗克研究所等機(jī)構(gòu)合作,從理解大腦神經(jīng)網(wǎng)絡(luò)的圖像入手,試圖重構(gòu)生物神經(jīng)網(wǎng)絡(luò)?! ≡谥暗膱?bào)告中,JeffDean提到他們提出了一種模擬生成神經(jīng)網(wǎng)絡(luò)的算法“Flood-FillingNetworks”,可以使用原始數(shù)據(jù),利用此前的預(yù)測,自動(dòng)跟蹤神經(jīng)傳導(dǎo)?! ?/p>

4、今天,描述相關(guān)研究的論文正式在NatureMethods發(fā)表,他們的方法不但能自動(dòng)分析大腦連接組數(shù)據(jù),還將準(zhǔn)確度提高了一個(gè)數(shù)量級,突破了當(dāng)前連接組學(xué)的一個(gè)重要瓶頸!    研究人員表示,他們的算法比以前的自動(dòng)化方法準(zhǔn)確度提高了10倍。這是AI在推動(dòng)基礎(chǔ)科學(xué)發(fā)展的又一項(xiàng)成功例證,大大推動(dòng)了我們對人腦數(shù)據(jù)的解析,也有助于構(gòu)建更好的人工智能?! ≌鏙effDean所說,機(jī)器學(xué)習(xí)能夠用于幫助乃至解決人類重大工程挑戰(zhàn)?! ∽詣?dòng)分析大腦連接數(shù)據(jù),將精度提高一個(gè)數(shù)量級!  連接組學(xué)(Connectomics)旨在全面地映射神經(jīng)系統(tǒng)中發(fā)現(xiàn)的神經(jīng)元網(wǎng)絡(luò)的結(jié)構(gòu),以便更好地理解大腦如何工作

5、。這個(gè)過程需要以納米分辨率(通常使用電子顯微鏡)對3D腦組織進(jìn)行成像,然后分析所得到的圖像數(shù)據(jù),追蹤大腦的神經(jīng)節(jié)并識別各個(gè)突觸連接。由于成像的高分辨率,即使只有一立方毫米的腦組織,也可以產(chǎn)生超過1000TB的數(shù)據(jù)!再加上這些圖像中的結(jié)構(gòu)可能非常微妙和復(fù)雜,構(gòu)建大腦連接圖的主要瓶頸實(shí)際上并不在于獲取數(shù)據(jù),而是如何自動(dòng)分析這些數(shù)據(jù)?! 〗裉?,谷歌與馬克斯普朗克神經(jīng)生物學(xué)研究所的同事合作,在NatureMethods發(fā)表了《使用Flood-Filling網(wǎng)絡(luò)高效自動(dòng)重建神經(jīng)元》(High-PrecisionAutomatedReconstructionofNeuronswit

6、hFlood-FillingNetworks),展示了一種新型的遞歸神經(jīng)網(wǎng)絡(luò)如何提高自動(dòng)解析連接組數(shù)據(jù)的準(zhǔn)確性。不僅如此,與先前的深度學(xué)習(xí)技術(shù)相比,提高了一個(gè)數(shù)量級?!   ∈褂肍lood-Filling網(wǎng)絡(luò)進(jìn)行三維圖像分割  在大規(guī)模電子顯微鏡數(shù)據(jù)中追蹤神經(jīng)節(jié)是一個(gè)圖像分割問題。傳統(tǒng)算法將這個(gè)過程分為至少兩個(gè)步驟:首先,使用邊緣檢測器或機(jī)器學(xué)習(xí)分類器找出神經(jīng)節(jié)之間的邊界,然后使用watershed或graphcut等算法,將未被邊界分隔的圖像像素分組組合在一起?! ?015年,谷歌與馬克斯普朗克神經(jīng)生物學(xué)研究所的團(tuán)隊(duì)開始嘗試基于遞歸神經(jīng)網(wǎng)絡(luò)的替代方法,將上述兩個(gè)步驟統(tǒng)

7、一起來。新的算法從特定的像素位置開始生長,然后使用一個(gè)循環(huán)卷積神經(jīng)網(wǎng)絡(luò)不斷“填充”一個(gè)區(qū)域,網(wǎng)絡(luò)會(huì)預(yù)測哪些像素是與初始的那個(gè)像素屬于同一個(gè)物體。在2D中分割物體的Flood-Filing網(wǎng)絡(luò)。黃點(diǎn)是當(dāng)前焦點(diǎn)區(qū)域的中心;隨著算法不斷迭代,檢查整個(gè)圖像,分割區(qū)域不斷擴(kuò)展(藍(lán)色)?! ⊥ㄟ^預(yù)期運(yùn)行長度來測量準(zhǔn)確性,優(yōu)于以往深度學(xué)習(xí)方法  自2015年以來,谷歌與馬普研究所的研究人員一直致力于將這種新方法應(yīng)用于大規(guī)模的連接組數(shù)據(jù)集,并嚴(yán)格量化其準(zhǔn)確性?! ∷麄兲岢隽嗣麨椤邦A(yù)期運(yùn)行長度”(ERL)的概念:在大腦的3D圖像中給定一個(gè)隨機(jī)的神經(jīng)元,在跟

當(dāng)前文檔最多預(yù)覽五頁,下載文檔查看全文

此文檔下載收益歸作者所有

當(dāng)前文檔最多預(yù)覽五頁,下載文檔查看全文
溫馨提示:
1. 部分包含數(shù)學(xué)公式或PPT動(dòng)畫的文件,查看預(yù)覽時(shí)可能會(huì)顯示錯(cuò)亂或異常,文件下載后無此問題,請放心下載。
2. 本文檔由用戶上傳,版權(quán)歸屬用戶,天天文庫負(fù)責(zé)整理代發(fā)布。如果您對本文檔版權(quán)有爭議請及時(shí)聯(lián)系客服。
3. 下載前請仔細(xì)閱讀文檔內(nèi)容,確認(rèn)文檔內(nèi)容符合您的需求后進(jìn)行下載,若出現(xiàn)內(nèi)容與標(biāo)題不符可向本站投訴處理。
4. 下載文檔時(shí)可能由于網(wǎng)絡(luò)波動(dòng)等原因無法下載或下載錯(cuò)誤,付費(fèi)完成后未能成功下載的用戶請聯(lián)系客服處理。