0514-86177077
9:00-17:00(工作日)
隨著言語進入我們的腦海,我們形成了某人對我們所說的話的想法,那到底這些想法是如何在我們腦中產生的。 書讀百遍其義自見,一個詞有多重含義,但我們可以根據之前所說的內容推斷出那個詞對于那個詞的含義,那大腦如何聯系這些概念的。 人工智能' target='_blank'>人工智能(AI)能幫助我們理解大腦如何理解語言嗎?神經科學可以幫助我們理解為什么AI和神經網絡在預測人類感知方面是有效的嗎? 來自德克薩斯大學奧斯汀分校(UT Austin)的Alexander Huth和Shailee Jain的研究表明兩者都有可能。 在2018年神經信息處理系統會議(NeurIPS)上發表的一篇論文中,學者們描述了使用人工神經網絡比以往更準確地預測大腦中不同區域如何響應特定單詞的實驗結果。研究人員認為使用人工神經網絡比以往更準確地預測大腦中不同區域如何響應特定單詞。 實驗內容 研究人員進行了相關實驗,以測試并最終預測大腦中不同區域在聽故事時的反應(特別是蛾類無線電小時)。他們使用從fMRI(功能磁共振成像)機器收集的數據,根據神經元的活躍組,捕獲大腦血液氧合水平的變化。這是語言概念在大腦中代表的對應物。 研究人員利用德克薩斯高級計算中心(TACC)的強大超級計算機,通過LSTM方法訓練了一個語言模型。當試圖預測下一個詞時,這個模型必須隱含地學習關于語言如何運作的所有其他內容,就像哪些詞語傾向于跟隨其他詞語,而不是實際訪問大腦或任何有關大腦的數據。 基于fMRI數據和語言模型,研究人員訓練了一個系統,可以預測大腦第一次聽到新故事中每個單詞時的反應。 根據新的研究表明,添加語境元素 - 在這種情況下,最多20個單詞 - 可以顯著改善大腦活動預測。他們發現,即使使用最少量的上下文,他們的預測也會有所改善。提供的上下文越多,其預測的準確性就越高。 如果LSTM包含更多單詞,那么它就能更好地預測下一個單詞,這意味著它必須包含過去所有單詞的信息。 研究進一步深入。它探討了大腦的哪些部分對所包含的上下文量更敏感。例如,他們發現似乎局限于聽覺皮層的概念較少依賴于背景。如果你聽到狗這個詞,這個區域并不關心那之前的10個單詞是什么,它只會響應狗的聲音。另一方面,當涉及更多背景時,更容易確定處理更高層次思維的大腦區域。這支持了心靈和語言理解的理論。 要求更高的計算能力 LSTM(以及一般的神經網絡)通過將高維空間中的值分配給各個組件(此處為單詞)來工作,這樣每個組件都可以通過其與許多其他事物的數千種不同關系來定義。 研究人員通過從Reddit帖子中提取數以千萬計的單詞來訓練語言模型。然后他們的系統預測了六個主體大腦中的數千個體素(三維像素)將如何響應模型和個體之前都沒有聽過的第二組故事。因為他們對上下文長度的影響以及神經網絡中各個層的影響感興趣,所以他們基本上測試了每個受試者的60個不同因素(20個長度的上下文保留和3個不同的層維度)。 所有這些都導致大規模的計算問題,需要大量的計算能力,存儲器,存儲和數據檢索。TACC的資源非常適合這個問題。研究人員使用Maverick超級計算機(包含用于計算任務的GPU和CPU)和Corral(一種存儲和數據管理資源)來保存和分發數據。通過將問題并行化到許多處理器,他們能夠在幾周而不是幾年內運行計算實驗。 同時為了有效地開發這些模型,需要大量的訓練數據,這意味著每次要更新權重時都必須通過整個數據集。 端到端系統 研究人員開發了一個直接預測大腦反應的模型,稱之為端到端系統,而Huth和Jain希望在未來的研究中采用這種方式。這樣的模型將直接改善其對大腦反應的表現。對大腦活動的錯誤預測會反饋到模型中并刺激改進。這樣的模型將直接改善其對大腦反應的表現。對大腦活動的錯誤預測會反饋到模型中并刺激改進。 Jain說道大腦是一種非常有效的計算機器,人工智能的目的是建立能夠完成大腦所能完成的所有任務的機器,但是,我們對大腦并不了解很多。因此,我們嘗試使用人工智能來首先質疑大腦是如何工作的,然后,根據我們通過這種審訊方法獲得的見解,以及通過理論神經科學,我們使用這些結果來開發更好的人工智能。
標簽:自貢 麗水 西安 淄博 十堰 云浮 上饒 山南
上一篇:杭州大壩科技有限公司18款丨語音識別系統的使用
下一篇:AI應用 | 語音識別,讓機器聽懂這個世界
Copyright ? 1999-2012 誠信 合法 規范的巨人網絡通訊始建于2005年
蘇ICP備15040257號-8