IT之家 12 月 8 日消息,谷歌表示,其新的人工智能模型系列有一個(gè)奇特的功能:能夠“識(shí)別”情緒。
谷歌周四發(fā)布了其最新 AI 模型系列 PaliGemma 2,該模型具備圖像分析能力,可以生成圖像描述并回答有關(guān)照片中人物的問(wèn)題。谷歌在其博客中介紹,PaliGemma 2 不僅能識(shí)別物體,還能生成詳細(xì)且與上下文相關(guān)的圖片說(shuō)明,涵蓋動(dòng)作、情感以及整體場(chǎng)景的敘述。
PaliGemma 2 的情感識(shí)別功能并非開箱即用,需要進(jìn)行專門的微調(diào),但專家們?nèi)匀粚?duì)此表示擔(dān)憂。
多年來(lái),許多科技公司一直在嘗試開發(fā)能夠識(shí)別情感的 AI,盡管一些公司聲稱已經(jīng)取得突破,但這一技術(shù)的基礎(chǔ)仍然存在爭(zhēng)議。大多數(shù)情感識(shí)別系統(tǒng)都基于心理學(xué)家 Paul Ekman 的理論,即人類有六種基本情緒:憤怒、驚訝、厭惡、喜悅、恐懼和悲傷。然而后續(xù)的研究表明,來(lái)自不同文化背景的人們?cè)诒磉_(dá)情感時(shí)存在顯著差異,這使得情感識(shí)別的普遍性受到質(zhì)疑。
倫敦國(guó)王學(xué)院專門研究人工智能的研究員 Mike Cook 表示,情感識(shí)別在一般情況下是不可行的,因?yàn)槿祟惖那楦畜w驗(yàn)非常復(fù)雜。雖然人們可以通過(guò)觀察他人來(lái)推斷他們的情緒,但不能做到全面且完美地解決情緒檢測(cè)問(wèn)題。
情感識(shí)別系統(tǒng)的另一個(gè)問(wèn)題是其可靠性和偏見。一些研究表明,面部分析模型可能會(huì)對(duì)某些表情(如微笑)產(chǎn)生偏好,而最近的研究則表明,情感分析模型對(duì)黑人面孔的負(fù)面情緒判斷比白人面孔更多。
谷歌表示,PaliGemma 2 在進(jìn)行“廣泛測(cè)試”后,評(píng)估了其在人群偏見方面的表現(xiàn),結(jié)果顯示其“毒性和粗俗內(nèi)容的水平低于行業(yè)基準(zhǔn)”。但該公司并未公開測(cè)試所依據(jù)的完整基準(zhǔn),也沒(méi)有明確表示所進(jìn)行的測(cè)試類型。谷歌披露的唯一基準(zhǔn)是 FairFace—— 一個(gè)包含數(shù)萬(wàn)張人像的面部數(shù)據(jù)集。谷歌聲稱,PaliGemma 2 在該數(shù)據(jù)集上的表現(xiàn)良好,但一些研究者批評(píng) FairFace 存在偏見,認(rèn)為該數(shù)據(jù)集僅代表少數(shù)幾種族群。
AI Now 研究所首席 AI 科學(xué)家 Heidy Khlaaf 表示,解讀情緒是一件相當(dāng)主觀的事情,它超越了使用視覺(jué)輔助工具的范圍,深深地嵌入在個(gè)人和文化背景中。
據(jù)IT之家了解,歐盟的《人工智能法案》禁止學(xué)校和雇主部署情感識(shí)別系統(tǒng),但允許執(zhí)法機(jī)構(gòu)使用。
Khlaaf 表示,如果這種所謂的情感識(shí)別是建立在偽科學(xué)假設(shè)的基礎(chǔ)上的,那么這種能力可能會(huì)被用來(lái)進(jìn)一步歧視邊緣化群體,例如在執(zhí)法、人力資源、邊境治理等領(lǐng)域。
谷歌發(fā)言人表示,公司對(duì) PaliGemma 2 的“表征危害”測(cè)試充滿信心,并進(jìn)行了廣泛的倫理和安全評(píng)估。
廣告聲明:文內(nèi)含有的對(duì)外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。