設(shè)置
  • 日夜間
    隨系統(tǒng)
    淺色
    深色
  • 主題色

AI 打破腦機(jī)接口延遲壁壘:癱瘓者“開口”近乎實(shí)時(shí)

2025/4/11 13:37:24 來源:IT之家 作者:故淵 責(zé)編:故淵

IT之家 4 月 11 日消息,加州大學(xué)伯克利分校與舊金山分校的研究團(tuán)隊(duì)在腦機(jī)接口(BCI)領(lǐng)域取得突破,成功開發(fā)出一種技術(shù),幫助重度癱瘓患者恢復(fù)自然語音表達(dá)。該技術(shù)利用人工智能(AI)模型,將大腦信號(hào)實(shí)時(shí)轉(zhuǎn)化為可聽語音,解決傳統(tǒng)語音神經(jīng)假體延遲問題。

加州大學(xué)伯克利分校與舊金山分校的研究團(tuán)隊(duì)開發(fā)了一種創(chuàng)新方法,通過捕捉大腦運(yùn)動(dòng)皮層信號(hào),利用 AI 算法實(shí)時(shí)解碼并生成語音。

研究共同負(fù)責(zé)人、伯克利分校電氣工程與計(jì)算機(jī)科學(xué)系助理教授 Gopala Anumanchipalli 表示,這種“直播”(streaming)方法借鑒了類似 Alexa 和 Siri 的語音解碼技術(shù),能顯著縮短從大腦意圖到語音輸出的時(shí)間。實(shí)驗(yàn)中,患者 Ann 無需發(fā)聲,僅通過“默想”句子即可生成接近自然的語音。

新技術(shù)的核心在于解決傳統(tǒng) BCI 語音解碼的延遲問題。以往技術(shù)單句解碼需約 8 秒,而新方法能在患者產(chǎn)生說話意圖后 1 秒內(nèi)輸出首個(gè)音節(jié)。

研究共同第一作者、伯克利分校博士生 Kaylo Littlejohn 介紹,團(tuán)隊(duì)通過 AI 預(yù)訓(xùn)練文本轉(zhuǎn)語音模型,模擬患者受傷前的聲音,讓輸出更具個(gè)性化。實(shí)驗(yàn)還驗(yàn)證了該技術(shù)對(duì)多種腦信號(hào)采集設(shè)備(如微電極陣列和面部肌電傳感器)的兼容性,顯示其廣泛適用性。

研究團(tuán)隊(duì)進(jìn)一步測試了算法的泛化能力。他們讓患者 Ann 嘗試“說出”26 個(gè)未包含在訓(xùn)練數(shù)據(jù)中的單詞,如 NATO 音標(biāo)字母表中的“Alpha”、“Bravo”等。

結(jié)果顯示,模型仍能準(zhǔn)確解碼,證明其不僅依賴模式匹配,而是真正學(xué)習(xí)了語音的構(gòu)成規(guī)律。另一位共同第一作者、博士生 Cheol Jun Cho 表示,這種能力為未來提升語音表達(dá)的語氣、音調(diào)等特征奠定了基礎(chǔ)。

患者 Ann 反饋,相比 2023 年的早期實(shí)驗(yàn),新方法讓她感到更強(qiáng)的控制感和自我表達(dá)能力。研究團(tuán)隊(duì)計(jì)劃繼續(xù)優(yōu)化算法,增強(qiáng)語音的自然度和情感表達(dá),同時(shí)探索如何將技術(shù)應(yīng)用于更廣泛的臨床場景。

IT之家附上參考地址

廣告聲明:文內(nèi)含有的對(duì)外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。

相關(guān)文章

關(guān)鍵詞:AI,腦機(jī)

軟媒旗下網(wǎng)站: IT之家 最會(huì)買 - 返利返現(xiàn)優(yōu)惠券 iPhone之家 Win7之家 Win10之家 Win11之家

軟媒旗下軟件: 軟媒手機(jī)APP應(yīng)用 魔方 最會(huì)買 要知