智東西(公眾號:zhidxcom) 編 | 心緣 導語:谷歌研究人員創建了能夠映射大腦神經元的AI系統,7天就能完成人類需要花10萬小時的標注任務,并將準確度較之前的深度學習技術提高10倍。 智東西7月17日消息,昨日,《Nature Methods》刊登了谷歌新論文《High-Precision automated reconstruction of neurons with flood-filling networks》,稱其構建的AI系統將幫助神經科學家更好的理解大腦結構和功能。 映射神經系統的生物網絡結構屬于計算密集型的連接組學(Connectomics)研究范疇。人腦包含大約860億個通過100億個突觸聯網的神經元,對單個立方毫米神經元進行成像可以產生超過1000TB的數據。 幸運的是,AI可以提供幫助。 谷歌研究人員表示,發表在《Nature Methods》上的新論文《High-Precision automated reconstruction of neurons with flood-filling networks》或將有助于神經科學家更好地理解大腦的結構及其功能。谷歌和德國研究中心馬克斯普朗克研究所( Max Planck Institute)合作開展了該研究項目。 就像米開朗基羅工作室里的一塊大理石一樣,神經元的真實形態被困在所有周圍空間和其他糾纏神經元的數據中。神經科學家必須手動查看圖像,識別神經元切片,并指定計算機中的每一個變成3D模型。谷歌估計,每個樣品都是只有1毫米的立方體,完成對全部樣品的標注需要10萬小時。然而他們所研發的AI經過七天訓練,就能完成相同的任務。 傳統算法在追蹤神經節的過程中,使用邊緣檢測算法識別神經節之間的邊界,然后使用wateshed或graph cut等算法將未被邊界分割的圖像像素組合在一起。谷歌和馬克斯普朗克研究所的研究人員則提出了一種模擬生成神經網絡的“floor-filling Networks”模型,將兩個步驟結合起來,新算法從特定像素位置開始生長,并使用循環卷積神經網絡(Recurrent convolutional neural network,RCNN)不斷填充一個區域,進而預測哪些像素和初始像素屬于同一物體。 谷歌研究人員不是第一個將機器學習應用于連通組學的人,早在今年三月,英特爾與麻省理工學院計算機科學和人工智能實驗室就合作開發了新一代腦圖像處理管道。不過谷歌研究人員表示,他們的算法比以前的深度學習技術準確度提高一個數量級。該論文的共同作者Viren Jain表示,這個項目的突破在于教AI一次追蹤一個神經元結構,而不是試圖同時追蹤每個神經元。 為了嚴格量化準確性,該團隊提出了“預期運行長度(ERL)”的測量概念:在大腦的3D圖像中給定一個隨機神經元,測量算法在出錯之前可以跟蹤神經元在多遠的距離。據研究團隊稱,在對100萬立方微米的斑胸草雀進行腦部掃描時,該模型的表現比以前使用相同數據集的其他深度學習算法“好得多”。 ▲ERL算法追蹤鳴鳥腦部的一個神經元 ▲斑胸草雀,常用于脊椎動物腦、行為和演化研究 “這個項目真正影響的是可以完成的神經科學研究的數量,”Viren Jain告訴Quartz,“能夠以全面的方式研究大腦中神經元的實際模式是歷史上神經科學家所無法實現的。” Viren Jain和該論文的另一位主要作者Michal Januszewski在一篇博客中寫道:“通過將這些自動化結果與修復剩余錯誤所需的少量額外人力相結合,研究人員現在能夠研究鳴鳥連接組,以嘗試確定斑胸草雀如何學會唱歌曲。” 除了發表論文之外,研究團隊還在Github上發布了其模型的TensorFlow代碼,以及面向可視化數據集的WebGL 3D軟件。他們計劃在未來進一步完善該系統,使突觸解決過程完全自動化,并“為馬克斯普朗克研究所和其他地方的項目做出貢獻。” 原文來自:VentureBeat, Quartz |