設(shè)置
  • 日夜間
    隨系統(tǒng)
    淺色
    深色
  • 主題色

耶魯大學(xué)測試人類和AI一起工作,結(jié)果令人意外

2019/3/7 11:05:08 來源:網(wǎng)易科技 作者:網(wǎng)易智能 責(zé)編:櫻木

《大西洋月刊》撰文指出,人工智能正在直接或間接地影響諸如愛情、友誼、合作以及教學(xué)等人類基本社會能力。

當(dāng)人工智能更全面地滲入人類生活時,我們可能還需要一種新的社會契約,一種與機(jī)器而不是與他人相處的契約。

幾十年來關(guān)于機(jī)器人如何改變我們生活,一直是科幻小說的慣常話題。20世紀(jì)40年代,當(dāng)人類和人工智能之間的廣泛互動還遙不可及之時,科幻小說作家艾薩克·阿西莫夫(Isaac Asimov)為了防止機(jī)器人傷害人類,就提出了著名的機(jī)器人三定律。由于清楚機(jī)器人可以通過直接互動影響人類,機(jī)器人三定律的第一點(diǎn)就是機(jī)器人不能傷害人類,也不能在人類受到傷害時袖手旁觀。想想經(jīng)典科幻小說中的那些描述:比如在《星球大戰(zhàn)》中,C-3PO和R2-D2與叛軍聯(lián)盟合作挫敗帝國;或者《2001太空漫游》中的HAL 9000和《機(jī)械姬》中的艾娃密謀殺害表面上的主人。

但是這些想象并沒有集中在人工智能更廣泛也更重要的潛在社會影響上:人工智能可以影響我們?nèi)祟愔g的互動方式。

當(dāng)然,激進(jìn)的創(chuàng)新此前已經(jīng)一再改變了人類共同生活的方式。大約在5000到10000年前,城市的出現(xiàn)意味著游牧生活的減少和人口密度的增加。無論是人類個體還是集體,都對這種新的生活方式進(jìn)行了適應(yīng)。比如說我們可能已經(jīng)進(jìn)化出對可能由這些密集新環(huán)境造成感染的抵抗力。最近,包括印刷、電話和互聯(lián)網(wǎng)在內(nèi)的技術(shù)發(fā)明徹底改變了我們存儲和交流信息的方式。

然而,盡管這些創(chuàng)新具有重大影響,但它們并沒有改變?nèi)祟惿缃粚傩缘幕拘袨椋哼@是我們經(jīng)過數(shù)十萬年進(jìn)化而來的基本社會能力,其中包括愛情、友誼、合作和教學(xué)。在世界各地,這些人類行為的基本因素在世界各地保持著驚人的一致性,無論是在城市或者農(nóng)村,無論人類社會中是否使用現(xiàn)代技術(shù)均是如此。

但在人類社會中間加上人工智能可能更具破壞性。特別是當(dāng)機(jī)器被設(shè)計成和我們一樣,并深深地滲入我們的生活時,它們可能會改變我們的愛情方式、交友方式或者人性。這一切不僅僅發(fā)生在我們與機(jī)器的直接互動中,而且發(fā)生在我們與他人的互動中。

耶魯大學(xué)實(shí)驗(yàn)室里做的一些實(shí)驗(yàn)就是如此。在其中一個實(shí)驗(yàn)中,研究人員引導(dǎo)一小群人與人形機(jī)器人一起在虛擬世界中鋪設(shè)鐵軌。每個實(shí)驗(yàn)組由三個人和一個藍(lán)白相間的小機(jī)器人組成,他們圍坐在一張方桌旁,通過平板電腦完成任務(wù)。這個機(jī)器人被設(shè)定為偶爾會犯錯誤,并且會承認(rèn)錯誤:“對不起,伙計們,這一輪我犯了錯誤?!薄拔抑肋@可能難以置信,但機(jī)器人也會犯錯。”

結(jié)果證明,這個會作懺悔的笨拙機(jī)器人通過改善人類之間的溝通交流,幫助這些小組表現(xiàn)得更好。他們變得更放松,更健談,安慰那些容易犯錯的小組成員。與機(jī)器人只做平淡陳述的對照相比,有懺悔機(jī)器人的實(shí)驗(yàn)組成員之間合作得更好。

在另一項(xiàng)虛擬實(shí)驗(yàn)中,研究人員將4000名受試者分成20人左右的小組,并在小組內(nèi)為每個人分配“朋友”;彼此之間的朋友關(guān)系形成了一個社交網(wǎng)絡(luò)。然后,這些小組被分配了一項(xiàng)任務(wù):每個人必須從三種顏色中選擇一種,但是每個人所選擇的顏色不能與被分配朋友所選色相同。在受試者不知情的情況下,研究人員為一些小組分配了一些被設(shè)定為偶爾會出錯的機(jī)器人。實(shí)驗(yàn)顯示,與這些機(jī)器人直接相關(guān)的人變得更加靈活,并且會避免陷入一個只適用于特定個人,但不適用于整個團(tuán)隊(duì)的解決方案。更重要的是,由此產(chǎn)生的靈活性會在整個小組中傳播開來,甚至?xí)绊懙經(jīng)]有直接與機(jī)器進(jìn)行交互的人。因此,分配有容易出錯的智能程序的實(shí)驗(yàn)組始終優(yōu)于那些沒有出錯智能程序的實(shí)驗(yàn)組,在表明,機(jī)器人有助于人類相互幫助。

這兩項(xiàng)研究都表明,在所謂的“混合系統(tǒng)”中,也就是人與機(jī)器進(jìn)行社交互動的系統(tǒng)中,合適的人工智能可以改善人與人之間的關(guān)系。其他研究結(jié)果也證實(shí)了這一點(diǎn)。例如人們在網(wǎng)上對他人發(fā)出謾罵,后政治學(xué)家凱文·芒格(Kevin Munger)指示特定種類的機(jī)器人進(jìn)行干預(yù)。他指出,在某些情況下,機(jī)器人只是提醒謾罵者他們的目標(biāo)是一個感情可能會受到傷害的人時,就能使謾罵者在一個多月的時間內(nèi)不再攻擊他人。

但是在我們的社會環(huán)境中加入人工智能也會使我們的行為不再那么有效率和道德。在另一個實(shí)驗(yàn)中,研究人員給了幾千名受試者錢,讓他們在多個回合的網(wǎng)絡(luò)游戲中使用。在每一輪測試中,受試者被告知他們可以保留自己的錢,也可以將部分或全部錢捐給鄰居。如果他們捐了錢,研究人員也會捐同樣的錢給他們的鄰居。在游戲初期,三分之二的人表現(xiàn)得無私。畢竟,他們意識到在第一輪對鄰居慷慨可能會促使鄰居在下一輪對他們慷慨,從而建立一種互惠準(zhǔn)則。然而,從自私和短期的角度來看,最好的結(jié)果是保留自己的錢,并從鄰居那里得到錢。在這個實(shí)驗(yàn)中,研人員發(fā)現(xiàn)在整個受試群體中加入一些假裝人類玩家的自私機(jī)器人,就可以促使整個群體做出同樣的自私行為。最終,參與實(shí)驗(yàn)的人彼此完全停止了合作。這些機(jī)器人就這樣把一群慷慨的人變成了自私之徒。

合作是我們?nèi)祟惖囊粋€重要特征,是社會生活必不可少的。信任和慷慨是區(qū)分成功和失敗群體的關(guān)鍵。如果每個人都為了幫助群體而努力,那么都應(yīng)該從中受益。然而,當(dāng)這種行為失效時,公共利益的概念就消失了,每個人都會受到損害。人工智能可能會有效降低我們合作的能力,這一事實(shí)非常令人擔(dān)憂。

我們已經(jīng)遇到過現(xiàn)實(shí)世界中人工智能如何破壞真實(shí)世界人際關(guān)系的許多例子,而人工智能對社會產(chǎn)生簡單影響這一事實(shí)每天都在我們身邊上演。父母們看著自己的孩子對著Alexa或Siri等數(shù)字助理發(fā)出粗魯?shù)拿睿_始擔(dān)心這種粗魯會滲入孩子對待他人的方式,或者擔(dān)心孩子與人工智能機(jī)器的關(guān)系會干擾甚至搶占人際關(guān)系。麻省理工學(xué)院技術(shù)與社會專家雪莉·特克爾(Sherry Turkle)不久前指出,那些在人工智能環(huán)境中長大的孩子,可能不會有“同理心”。

隨著數(shù)字助理變得無處不在,我們更習(xí)慣于和它們進(jìn)行交談,仿佛它們是有知覺的;朱迪思·舒列維茲(Judith Shulevitz)去年在相關(guān)文章中描述了我們中的一些人是如何開始把它們當(dāng)作知己,甚至是朋友和治療師。舒列維茲說,她自己向谷歌數(shù)字助理坦白了一些不會告訴丈夫的事情。如果我們能更自如地與電子設(shè)備親密交談,我們的婚姻和友情會發(fā)生什么樣的變化呢?由于商業(yè)上的需要,設(shè)計師和程序員通常會設(shè)計出讓我們感覺更好的設(shè)備,但這可能無助于我們進(jìn)行自我反思。隨著人工智能不斷滲透進(jìn)我們的生活,我們必須面對這樣一種可能性:人工智能會抑制我們的情感,抑制我們與他人的深層聯(lián)系,讓我們彼此之間的關(guān)系變得不那么互惠,或者說更膚淺更自戀。

所有這些都可能以一種意想不到的方式改變?nèi)祟惿鐣?。我們是否希望機(jī)器影響孩子們善良的天性?我們是否希望機(jī)器會影響成年人的性生活?

英國德蒙特福特大學(xué)(De Montfort University)人類學(xué)家凱瑟琳·理查森(Kathleen Richardson)就對后一個問題很擔(dān)心。作為反對性愛機(jī)器人運(yùn)動的主要人物,她警告說,性愛機(jī)器人會使人類失去人性,并可能導(dǎo)致用戶遠(yuǎn)離真正的親密關(guān)系。我們甚至可能會從把機(jī)器人當(dāng)作滿足性欲的工具,發(fā)展到以這種方式對待他人。其他觀察家則認(rèn)為機(jī)器人可以從根本上改善人類之間的性行為。

早在我們大多數(shù)人遇到如此親密的人工智能難題之前,我們還會應(yīng)對更多日常挑戰(zhàn)。畢竟自動駕駛汽車的時代已經(jīng)來臨,這些車輛承諾將大大減少困擾人類駕駛員的疲勞和分心等問題,從而防止事故的發(fā)生。但是它們還會對人產(chǎn)生什么影響呢?駕駛是一種非?,F(xiàn)代的社會互動方式,需要高度合作和社會協(xié)調(diào)。有人擔(dān)心,自動駕駛汽車剝奪了人們行使這些能力的機(jī)會,可能會導(dǎo)致這種社交能力的萎縮。

這些車輛不僅將通過編程來接管駕駛職責(zé),從而取代人類做出判斷的權(quán)力,同時還將影響與它們沒有直接接觸的人類。例如,自動駕駛汽車以穩(wěn)定不變的速度行駛一段時間后,駕駛員的專注度可能就會下降,反而增加了其接管駕駛時發(fā)生事故的可能性?;蛘撸?jīng)驗(yàn)可能會證實(shí),與完全符合交通法規(guī)的自動駕駛汽車并排行駛,實(shí)際上會提高人類駕駛員的表現(xiàn)。

不管怎樣,如果我們不對這些社會溢出效應(yīng)進(jìn)行優(yōu)先考慮,就不能不顧后果地推出新的人工智能形式。人類必須像為自動駕駛汽車技術(shù)開發(fā)硬件和軟件那樣,運(yùn)用同樣的努力和聰明才智來管理人工智能對汽車外部產(chǎn)生的潛在漣漪效應(yīng)。畢竟要求車后安裝剎車燈,不僅是為了車內(nèi)人員的利益,而且主要是為了車后的其他人。

1985年,在艾薩克·阿西莫夫(Isaac Asimov)提出他的機(jī)器人定律大約40年后,他又在自己的清單上增加了一條:機(jī)器人永遠(yuǎn)不應(yīng)該做任何可能傷害人類的事情。但他在如何評估這種危害方面遇到了困難?!叭耸且粋€具體的物體,”他后來寫道?!皩σ粋€人的傷害是可以估計和判斷的。但人性是一種抽象。”

特別關(guān)注社會溢出效應(yīng)會有所幫助。其他領(lǐng)域的溢出效應(yīng)導(dǎo)致了規(guī)則、法律和監(jiān)督的要求。無論是污染水源的公司還是在辦公樓里呼出二手煙的個人,一旦一些人的行為開始影響其他人,社會可能會介入。由于人工智能對人與人之間互動的影響是如此強(qiáng)烈而深遠(yuǎn),而且發(fā)展迅速而廣泛,在大規(guī)模部署之前必須系統(tǒng)地研究可能會出現(xiàn)什么樣的效應(yīng),并討論如何為了共同的人類利益來進(jìn)行調(diào)節(jié)。

已經(jīng)有一群不同的研究人員和實(shí)踐者,比如說計算機(jī)科學(xué)家、工程師、動物學(xué)家和社會科學(xué)家等等聚集在一起開發(fā)“機(jī)器行為”領(lǐng)域,希望將人類對人工智能的理解建立在更堅(jiān)實(shí)的理論和技術(shù)基礎(chǔ)之上。在這個領(lǐng)域里,機(jī)器人不僅僅是人類制造的物品,而是一種新型的社會行為體。

一切迫在眉睫。在不遠(yuǎn)的將來,人工智能賦能的機(jī)器可能會通過編程或自主學(xué)習(xí)展現(xiàn)出與人類相比似乎奇怪的智能和行為形式。我們需要迅速將僅僅怪異的行為與真正威脅我們的行為區(qū)分開來。

人工智能最值得我們關(guān)注的是那些會真正影響人類社會生活核心的方面,因?yàn)檫@些核心特征使我們的物種在幾千年的時間里得以生存延續(xù)。

啟蒙哲學(xué)家托馬斯?霍布斯(Thomas Hobbes)認(rèn)為,人類需要一種集體協(xié)議,以防止我們變得雜亂無章。他錯了。早在人類組建政府之前,進(jìn)化就為人類裝備了一套社會能力,使我們能夠和平共處。在前人工智能時代,祖先遺傳給我們的愛情、友誼、合作和教學(xué)能力繼續(xù)幫助我們共同生活。

不幸的是,人類沒有時間進(jìn)化出與機(jī)器人相媲美的先天能力。因此,我們必須采取措施,確保他們能夠與我們生活在一起,不受破壞。

當(dāng)人工智能更全面地滲入人類生活時,我們可能還需要一種新的社會契約,一種與機(jī)器而不是與他人相處的契約。

廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。

相關(guān)文章

關(guān)鍵詞:人工智能,機(jī)器人,AI

軟媒旗下網(wǎng)站: IT之家 最會買 - 返利返現(xiàn)優(yōu)惠券 iPhone之家 Win7之家 Win10之家 Win11之家

軟媒旗下軟件: 軟媒手機(jī)APP應(yīng)用 魔方 最會買 要知