設(shè)置
  • 日夜間
    隨系統(tǒng)
    淺色
    深色
  • 主題色

這個(gè)AI學(xué)習(xí)了4.5萬幅畫之后,讓你秒變梵高畫作主角

2019/8/10 10:09:59 來源:網(wǎng)易科技 作者:小小 責(zé)編:嗜橙

近日,研究人員推出了名為AI Portraits的網(wǎng)站,借助人工智能(AI)技術(shù),你可以上傳自拍照,然后看著它變成你的經(jīng)典肖像。幾秒鐘之內(nèi),你就能成為梵高、倫勃朗或提香畫作中的主角。

據(jù)了解,AI Portraits利用AI的生成式對抗網(wǎng)絡(luò)(generative adversarial network)進(jìn)行藝術(shù)創(chuàng)作,并迅速走紅。原因很容易理解:AI能夠創(chuàng)造令人印象深刻的藝術(shù),這一事實(shí)已經(jīng)吸引了公眾的想象力,畢竟曾有機(jī)器生成的畫作在拍賣會(huì)上拍出43.25萬美元的價(jià)格?,F(xiàn)在,AI正在把我們變成令人印象深刻的藝術(shù)作品主角,我們當(dāng)然會(huì)感到格外興奮。

我發(fā)現(xiàn)AI Portraits吸引人的地方,不僅在于它能把我變成文藝復(fù)興時(shí)期的漂亮女人,還在于研究人員首先給出的創(chuàng)建該網(wǎng)站的理由。他們希望我們探索人類偏見滲入AI的方式,包括他們剛剛放在我們指尖的AI。

在麻省理工學(xué)院-IBM沃特森AI實(shí)驗(yàn)室,研究人員使用了4.5萬幅畫作來訓(xùn)練他們的算法模型。這些數(shù)據(jù)包括從文藝復(fù)興早期到當(dāng)代的藝術(shù)肖像畫,但其重點(diǎn)是15世紀(jì)的歐洲畫作。

研究人員在網(wǎng)站上寫道:“這種肖像畫非常具有西方藝術(shù)傳統(tǒng)特色。在具有如此強(qiáng)烈偏見的數(shù)據(jù)集上訓(xùn)練我們的模型,讓我們反思AI公平的重要性?!?/p>

研究人員讓我們注意到這樣一個(gè)事實(shí):他們的AI工具會(huì)把我們的自拍變成漂亮的肖像,但這是一種非常特別的美。它沒有以印度微型畫的風(fēng)格重塑我們,因?yàn)樗鼪]有接受過印度藝術(shù)品的訓(xùn)練。一個(gè)專門研究歐洲藝術(shù)的人AI當(dāng)然只會(huì)創(chuàng)作出偏向歐洲風(fēng)格的肖像畫。

▲AI Portraits算法生成的油畫、水彩畫和水墨風(fēng)格的肖像作品

此外,這些是不允許我們微笑的肖像。正如創(chuàng)作者所解釋的那樣:“我們鼓勵(lì)您使用該工具進(jìn)行試驗(yàn),以探索算法模型的偏見。例如,嘗試在輸入圖像中微笑或大笑。你看到了什么?模型是否會(huì)產(chǎn)生沒有微笑或大笑的肖像?肖像大師很少畫微笑的人,因?yàn)槲⑿痛笮νǔEc風(fēng)俗畫中更滑稽的一面聯(lián)系起來,而且像微笑這樣的外在表現(xiàn)似乎會(huì)扭曲被畫者的臉。AI無法重現(xiàn)我們的笑容,這讓我們對藝術(shù)史有所了解?!?/p>

這也說明了“輸入偏見,輸出偏見”的關(guān)鍵AI原則。這意味著你從AI系統(tǒng)中得到什么,實(shí)際上取決于你輸入了什么。換句話說,AI在某種程度上并非是“客觀的”。這是個(gè)我們很多人還沒有意識(shí)到的現(xiàn)實(shí),很大程度上是因?yàn)樗惴Q策系統(tǒng)的開發(fā)者和營銷者把它們作為工具,以此來幫助我們更公正地做出選擇。

算法偏見問題

到目前為止,我們知道打造“無偏見AI”依然只是夢想,因?yàn)槲覀円呀?jīng)看到了一個(gè)又一個(gè)關(guān)于算法偏見如何損害人們生活的例子。

亞馬遜放棄了一種招聘算法,因?yàn)樵撍惴@示男性簡歷比女性簡歷更受歡迎。研究人員得出結(jié)論,法庭判決中使用的算法對白人比對黑人更寬容。一項(xiàng)研究發(fā)現(xiàn),抵押貸款算法歧視拉美裔和非裔美國借款人。

跨性別Uber司機(jī)的賬戶被凍結(jié),因?yàn)樵摴镜拿娌孔R(shí)別系統(tǒng)不善于識(shí)別正在變性的人的面孔。另外三種面部識(shí)別系統(tǒng)被發(fā)現(xiàn),與有色人種相比,白人更容易識(shí)別。我可以繼續(xù)舉出很多例子,但你應(yīng)該明白了。這是相當(dāng)令人沮喪的,我們能修好它嗎?

科技行業(yè)知道,人類的偏見會(huì)滲透到AI系統(tǒng)中,像IBM這樣的公司,正在發(fā)布“消除偏見工具包”來解決這個(gè)問題。這些方法提供了掃描AI系統(tǒng)偏見的方法,比如,通過檢查它們所訓(xùn)練的數(shù)據(jù)來調(diào)整它們,使它們更公平。

但技術(shù)去偏見并不等同于公平。在某些情況下,它會(huì)導(dǎo)致更多的社會(huì)危害。例如,考慮到面部識(shí)別技術(shù)現(xiàn)在被用于警察監(jiān)控中,主要針對有色人種,也許我們并不想讓它在識(shí)別黑人方面發(fā)揮太大作用。

這就是為何我認(rèn)為我們需要新的法律保護(hù)來保護(hù)我們免受有偏見AI系統(tǒng)傷害的原因,并在10位AI專家的幫助下起草了算法權(quán)利法案。其中的要求包括透明度、知情同意、糾正機(jī)制以及對出錯(cuò)算法系統(tǒng)的獨(dú)立監(jiān)督等。

不過,現(xiàn)實(shí)情況是,這些保護(hù)措施要被企業(yè)內(nèi)部化可能還需要一段時(shí)間,更不用說寫入法律了。與此同時(shí),對我們來說,充分意識(shí)到AI帶來的風(fēng)險(xiǎn)至關(guān)重要。一個(gè)能把自拍變成炫酷肖像的有趣網(wǎng)站不會(huì)把我們帶到那里,但正因?yàn)樗扔腥び挚?,為此可以成為一個(gè)非常有效的教育工具。

廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。

軟媒旗下網(wǎng)站: IT之家 最會(huì)買 - 返利返現(xiàn)優(yōu)惠券 iPhone之家 Win7之家 Win10之家 Win11之家

軟媒旗下軟件: 軟媒手機(jī)APP應(yīng)用 魔方 最會(huì)買 要知