Cassie Kozyrkov在過去五年里在谷歌擔(dān)任過各種各樣的技術(shù)職務(wù),但她現(xiàn)在擔(dān)任著“首席決策科學(xué)家”這個(gè)有點(diǎn)奇怪的職位?!皼Q策科學(xué)是數(shù)據(jù)和行為科學(xué)的交叉學(xué)科,涉及統(tǒng)計(jì)學(xué)、機(jī)器學(xué)習(xí)、心理學(xué)、經(jīng)濟(jì)學(xué)等。
實(shí)際上,這意味著Kozyrkov幫助谷歌推動(dòng)了一個(gè)積極的人工智能議程——或者,至少,讓人們相信人工智能并不像許多人宣稱的那么糟糕。
焦慮
“機(jī)器人正在偷走我們的工作”,“人工智能是人類生存的最大威脅”,類似的言論已不絕如耳,尤其在過去幾年里,這種擔(dān)憂變得更加明顯。
人工智能對(duì)話助手滲入我們的家中,汽車和卡車自動(dòng)駕駛似乎指日可待,機(jī)器可以在電腦游戲中打敗人類,甚至創(chuàng)意藝術(shù)也不能幸免于人工智能的沖擊。另一方面,我們也被告知枯燥重復(fù)的工作可能會(huì)成為過去。
人們對(duì)自己在自動(dòng)化世界中的未來感到焦慮和困惑,這是可以理解的。但是,根據(jù)Kozyrkov的說法,人工智能只是人類努力方向的延伸。
“人類的故事就是自動(dòng)化的故事,”Kozyrkov表示?!叭祟惖氖吩?shī)就是要把事情做得更好——從有人拿起一塊石頭砸向另一塊石頭的那一刻起,因?yàn)槭虑榭梢宰龅酶?。我們是一個(gè)制造工具的物種,我們反抗苦差事?!?/p>
對(duì)人工智能潛在恐懼的原因是我們覺得它可以做得比人類更好,但這種擔(dān)心并不成立。Kozyrkov認(rèn)為,所有工具都比人類好。理發(fā)師用剪刀理發(fā),因?yàn)橛檬职杨^發(fā)剪出來是一種不太理想的體驗(yàn)。印刷機(jī)使文本的大規(guī)模生產(chǎn)成為可能,其規(guī)模是人類用鋼筆無法復(fù)制的。但筆本身就開啟了一個(gè)充滿機(jī)遇的世界。
“我們所有的工具都比人類好——這就是工具的意義所在,”Kozyrkov繼續(xù)說道。“如果沒有工具你可以做得更好,為什么要使用工具呢?如果你擔(dān)心電腦的認(rèn)知能力比你強(qiáng),那我要提醒你,你的筆和紙?jiān)谟洃浄矫姹饶銖?qiáng)。我的水桶比我更擅長(zhǎng)裝水,我的計(jì)算器比我更擅長(zhǎng)把六位數(shù)相乘。人工智能在某些方面也會(huì)變是如此。”
當(dāng)然,許多人對(duì)人工智能和自動(dòng)化的潛在恐懼并不是說它會(huì)比人類更擅長(zhǎng)做事。對(duì)許多人來說,真正的危險(xiǎn)在于,任何惡意實(shí)體可以肆無忌憚地對(duì)我們的一舉一動(dòng)進(jìn)行跟蹤和微觀管理,從而在我們身上投下反烏托邦的陰影——幾乎不費(fèi)任何力氣就能實(shí)現(xiàn)一個(gè)秘密的宏偉愿景。
其他的擔(dān)憂與算法偏見、缺乏足夠的監(jiān)督以及最終的末日?qǐng)鼍坝嘘P(guān):如果某件事發(fā)生了嚴(yán)重且無意的錯(cuò)誤,該怎么辦?
偏見
研究人員已經(jīng)證明了人臉識(shí)別系統(tǒng)中固有的偏見,比如亞馬遜的Rekognition。民主黨總統(tǒng)候選人參議員Elizabeth Warren此前呼吁聯(lián)邦機(jī)構(gòu)解決算法偏見的問題,比如美聯(lián)儲(chǔ)如何處理貨幣貸款歧視。
但人們對(duì)人工智能如何真正減少人類現(xiàn)有偏見的關(guān)注少之又少。
舊金山最近宣稱,它將使用人工智能來減少對(duì)犯罪嫌疑人的偏見,例如,自動(dòng)修改警方報(bào)告中的某些信息。
在招聘領(lǐng)域,風(fēng)投支持的Fetcher正著手幫助企業(yè)利用人工智能尋找人才。該公司聲稱,人工智能還有助于將人類偏見降到最低。Fetcher通過在線渠道自動(dòng)尋找潛在候選人,并使用關(guān)鍵字來確定個(gè)人可能擁有的技能,而這些技能并沒有列在個(gè)人資料中。該公司將其平臺(tái)宣傳為消除招聘偏見的一種簡(jiǎn)單方法,因?yàn)槿绻阌?xùn)練一個(gè)系統(tǒng)遵循一套嚴(yán)格的標(biāo)準(zhǔn),只關(guān)注技能和經(jīng)驗(yàn),性別、種族或年齡等因素將不會(huì)被考慮在內(nèi)。
Fetcher聯(lián)合創(chuàng)始人兼首席執(zhí)行官Andres Blank表示:“我們相信,我們可以利用技術(shù)來解決多種形式的招聘偏見,幫助公司建立更加多樣化和包容性的組織。”
但對(duì)人工智能系統(tǒng)性歧視的擔(dān)憂,是許多人工智能領(lǐng)域的首要議題。微軟敦促美國(guó)政府監(jiān)管面部識(shí)別系統(tǒng),研究人員正致力于在不影響預(yù)測(cè)結(jié)果準(zhǔn)確性的前提下,減少人工智能中的偏見。
人為因素
最重要的是,人工智能還處于相對(duì)起步階段,我們?nèi)栽谘芯咳绾谓鉀Q算法偏見等問題。但Kozyrkov表示,人工智能所顯示的偏見與現(xiàn)有的人類偏見是一樣的——用于訓(xùn)練機(jī)器的數(shù)據(jù)集與用于教育人類的教科書完全一樣。
“數(shù)據(jù)集和教科書都有人類作者——它們都是根據(jù)人類的指令收集的,”她說?!叭绻憬o你的學(xué)生一本由一位懷有嚴(yán)重偏見的作者編寫的教科書,你認(rèn)為你的學(xué)生不會(huì)染上同樣的偏見嗎?”
當(dāng)然,在現(xiàn)實(shí)世界中,受人尊敬的同行評(píng)審的期刊或教科書應(yīng)該有足夠的監(jiān)督來對(duì)抗任何明顯的偏見——但如果作者、他們的數(shù)據(jù)源以及鼓勵(lì)學(xué)生閱讀教科書的老師都有同樣的偏見呢?任何陷阱可能要到很久以后才會(huì)被發(fā)現(xiàn),到那時(shí)想要阻止任何不良影響就太晚了。
因此,Kozyrkov夫認(rèn)為,“視角的多樣性”對(duì)于確保偏見最小化是必不可少的。
她說:“你對(duì)數(shù)據(jù)的關(guān)注越多,你就越有可能發(fā)現(xiàn)那些潛在的不良案例。所以在人工智能中,多樣性是必須擁有的。你確實(shí)需要從不同的角度來看待和思考如何使用這些例子來影響世界?!?/p>
測(cè)試
與學(xué)生考試的現(xiàn)實(shí)世界類似,在部署人工智能算法和機(jī)器學(xué)習(xí)模型之前測(cè)試它們,是確保它們能夠執(zhí)行設(shè)定的任務(wù)。
人類學(xué)生如果被問到他們事先學(xué)習(xí)過的問題,他們可能在考試中表現(xiàn)得非常好,但這可能是因?yàn)樗麄冇泻芎玫挠洃浟Γ皇菍?duì)手頭的科目有一個(gè)完整的理解。為了測(cè)試更廣泛的理解能力,需要給學(xué)生一些問題,讓他們能夠應(yīng)用所學(xué)知識(shí)。
機(jī)器學(xué)習(xí)是在同樣的前提下運(yùn)行的——存在一種被稱為“過度擬合”的建模錯(cuò)誤,在這種錯(cuò)誤中,一個(gè)特定的函數(shù)與訓(xùn)練數(shù)據(jù)過于緊密地對(duì)齊,可能會(huì)出現(xiàn)誤報(bào)?!半娔X的記憶力真的很好,”Kozyrkov說,“所以你真正測(cè)試他們的方法是給他們一些真實(shí)的新東西,他們不可能記住的。如果成功了,那就是真的成功了?!?/p>
Kozyrkov將安全有效的人工智能的四項(xiàng)原則與教授人類學(xué)生的四項(xiàng)基本原則進(jìn)行了比較,基本是類似的:
明智的教學(xué)目標(biāo)
相關(guān)和多樣化的觀點(diǎn)
精心制作的測(cè)試
安全網(wǎng)
不過,即使是最精心設(shè)計(jì)、初衷最好的人工智能系統(tǒng)也可能失敗或犯錯(cuò)——事實(shí)上,系統(tǒng)越好,在某些方面就越危險(xiǎn),就像人類學(xué)生一樣。
“即使你的學(xué)生真的很好,他們也可能犯錯(cuò)誤,”Kozyrkov說,“事實(shí)上,在某些方面,差學(xué)生比好生更危險(xiǎn),因?yàn)橛辛瞬钌?,你已?jīng)習(xí)慣了他們犯錯(cuò)誤,所以你已經(jīng)有了安全網(wǎng)。但是對(duì)于好生,如果你從來沒有見過他們犯錯(cuò)誤,你可能會(huì)認(rèn)為他們從來沒有犯過錯(cuò)誤。這可能只會(huì)讓你花費(fèi)更長(zhǎng)的時(shí)間,然后就是災(zāi)難性的失敗?!?/p>
這種“安全網(wǎng)”可以采取多種形式,但它往往涉及建立一個(gè)單獨(dú)的系統(tǒng),而不是“過分信任你的好學(xué)生,”Kozyrkov說。在一個(gè)例子中,一個(gè)房主配置了他的智能攝像頭和鎖系統(tǒng),如果它發(fā)現(xiàn)了一張不熟悉的面孔,就會(huì)啟動(dòng)它——但有點(diǎn)滑稽的是,它錯(cuò)誤地將房主識(shí)別為他T恤上的蝙蝠俠形象,并拒絕他進(jìn)入。
所有這一切都指向一個(gè)可能對(duì)許多人來說顯而易見但或許值得重復(fù)的觀點(diǎn):人工智能是其創(chuàng)造者的反映。因此,我們需要集中精力實(shí)現(xiàn)系統(tǒng)和檢查,以確保那些構(gòu)建機(jī)器的人(“教師”)是負(fù)責(zé)任的。
圍繞“機(jī)器教學(xué)”的重要性,人們達(dá)成了越來越多的共識(shí)。微軟等公司最近表示,人工智能的下一個(gè)前沿領(lǐng)域?qū)⑹抢萌祟悓I(yè)人士的專業(yè)技能來訓(xùn)練機(jī)器學(xué)習(xí)系統(tǒng),而不管專家是否具備人工智能知識(shí)或編程能力。
“是時(shí)候讓我們把重點(diǎn)放在機(jī)器教學(xué)上,而不僅僅是機(jī)器學(xué)習(xí)了,”Kozyrkov指出?!安灰尶苹眯≌f的花言巧語(yǔ)分散你對(duì)人類責(zé)任的注意力,從一開始就關(guān)注參與其中的人類。從領(lǐng)導(dǎo)者設(shè)定的目標(biāo),到工程師編寫、分析師和決策者核查的數(shù)據(jù)集,再到統(tǒng)計(jì)學(xué)家進(jìn)行的測(cè)試,再到可靠性工程師構(gòu)建的安全網(wǎng),所有這些都包含了很多人為因素?!?/p>
廣告聲明:文內(nèi)含有的對(duì)外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。