2019-04-26 13:58:25 來源:參考消息網 責任編輯:湯立斌
核心提示:研究報告第一作者、UCSF神經外科學研究員戈帕拉·阿努曼奇帕利說:“我們的計劃是制造出一個基本上相當于人工聲道的東西(一個計算機聲道),這樣癱瘓的人就可以用大腦控制它來說話。”

參考消息網4月26日報道 美媒報道,一項最新研究報告稱,科學家已經利用人工智能將大腦信號轉化成了語音,從而朝著有朝一日讓說話能力受損人士說出自己想法的大腦植入裝置邁出了一步。

美國《華爾街日報》網站4月24日報道稱,美國加利福尼亞大學舊金山分校(UCSF)的一個研究團隊介紹了一種實驗性的大腦解碼器,將研究對象大腦中信號的直接記錄與人工智能、機器學習和語音合成器結合在了一起。

研究人員說,這個系統在完善之后,能夠讓無法說話的人士(比如中風、癌癥和肌萎縮側索硬化癥患者)以正常語速進行交談。

研究報告第一作者、UCSF神經外科學研究員戈帕拉·阿努曼奇帕利說:“我們的計劃是制造出一個基本上相當于人工聲道的東西(一個計算機聲道),這樣癱瘓的人就可以用大腦控制它來說話。”

報道稱,美國波士頓大學神經科學家弗蘭克·岡瑟曾嘗試用實驗性無線大腦植入裝置來協助合成語音。他說,也許還要過10年甚至更長的時間,任何基于這項研究的可行的神經語音系統才能應用于臨床。

報道介紹,為了將大腦信號轉化為語音,UCSF的科學家們利用了大腦產生的用來控制發音肌肉的運動神經沖動。一旦人們決定大聲表達自己的想法,這些肌肉就能夠清楚地把它們說出來。

凡注明“來源:參考消息網”的所有作品,未經本網授權,不得轉載、摘編或以其他方式使用。