IT之家 3 月 11 日消息,《消費者報告》(Consumer Reports)發(fā)布的一項最新研究顯示,市場上的多款熱門語音克隆工具未能設置有效的安全防護機制,以防止欺詐或濫用行為的發(fā)生。
IT之家注意到,《消費者報告》對來自六家公司的語音克隆產品進行了調查,這些公司包括 Descript、ElevenLabs、Lovo、PlayHT、Resemble AI 和 Speechify。研究團隊重點考察了這些產品是否具備能夠阻止惡意用戶未經授權克隆他人聲音的機制。然而,調查結果顯示,僅有 Descript 和 Resemble AI 兩家公司采取了措施以防止工具被濫用。其他公司僅要求用戶勾選確認自己擁有克隆聲音的合法權利,或進行類似的自我聲明。
《消費者報告》政策分析師格蕾絲?蓋迪(Grace Gedye)指出,如果缺乏足夠的安全措施,AI 語音克隆工具可能會極大地加劇冒名頂替詐騙的風險。她在聲明中表示:“我們的評估表明,企業(yè)可以采取一些基本措施,增加未經授權克隆他人聲音的難度,但遺憾的是,部分公司并未采取這些措施。”
廣告聲明:文內含有的對外跳轉鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結果僅供參考,IT之家所有文章均包含本聲明。