近期,來自美國加利福尼亞大學舊金山分校的科學家開發出一套系統,將癱瘓失語患者的腦電波“翻譯”成語句,顯示在電腦屏幕上,研究結果發表在《The New England Journal of Medicine》雜志,標題為“Neuroprosthesis for Decoding Speech in a Paralyzed Person with Anarthria”。
參與研究的是一名男性患者,他在15年前因腦干中風導致大面積癱瘓并失語,但其大腦認知功能并未受損。研究人員將一個電極陣列植入該患者大腦控制語言的區域,再通過計算機算法分析他想說話時的大腦神經活動。分析過程主要用到兩種模型,一是用深度學習算法建立的計算模型,用來從記錄的大腦皮質活動中檢測和分類單詞;二是自然語言模型,該模型能根據序列中的前一個單詞推算生成下一個單詞的概率,從而在患者試圖說出單詞的時候解碼完整的句子。隨后,大腦神經活動的分析結果被轉換成文字顯示在電腦屏幕上。結果顯示,該方法解碼單詞的速度是每分鐘15.2個單詞,平均單詞錯誤率為25.6%。在后期分析中,研究人員檢測到了受試患者試圖生成的98%的單詞,在為期81周的研究期間,利用穩定的皮質信號分類單詞的準確率達到了47.1%。
總之,該研究報道了使用計算機深度學習模型和自然語言學習模型,分析癱瘓失語患者大腦皮質層活動并解碼其語言,使患者重新恢復了交流能力,為因病失語的患者重新與世界溝通帶來了新的希望。