北京時間 4 月 20 日上午消息,據(jù)報道,在 3 月份面向公眾推出人工智能聊天機器人 Bard 的前不久,谷歌要求內(nèi)部員工測試這個新工具。
根據(jù)內(nèi)部討論的截圖,一名員工的結(jié)論是,Bard 是個“病態(tài)的騙子”。另一名員工則表示,Bard“令人尷尬”。一名員工寫道,當(dāng)他們向 Bard 詢問如何降落飛機時,聊天機器人往往給出會導(dǎo)致墜機的建議。還有一名員工表示,Bard 提供的關(guān)于潛水的建議“可能會導(dǎo)致重傷或死亡”。
不過,谷歌依然推出了 Bard。根據(jù)多名在職員工和前員工的說法,以及谷歌的內(nèi)部文件,作為一家以往非常受信任的互聯(lián)網(wǎng)搜索巨頭,谷歌通過 Bard 提供的是低質(zhì)量的信息,目的是跟上競爭對手,同時將科技倫理承諾放在了很低的優(yōu)先級來考慮。2021 年,谷歌曾經(jīng)承諾,將人工智能倫理研究團隊擴大一倍,并投入更多資源評估人工智能技術(shù)的潛在危害。然而,隨著競爭對手 OpenAI 的聊天機器人 ChatGPT 在 2022 年 11 月首次亮相并大受歡迎,谷歌開始匆忙將生成式人工智能技術(shù)融入其最重要的產(chǎn)品中。
對這項技術(shù)本身來說,這樣做帶來的發(fā)展速度明顯更快,并可能會給社會產(chǎn)生深遠(yuǎn)的影響。谷歌的在職員工和前員工們表示,谷歌承諾加強的科技倫理團隊目前沒有話語權(quán),士氣低落。他們透露,負(fù)責(zé)新產(chǎn)品安全和科技倫理影響的員工已被告知,不要妨礙或試圖扼殺正在開發(fā)中的任何生成式人工智能工具。
谷歌的目標(biāo)是圍繞這項尖端技術(shù)振興其日益成熟的搜索業(yè)務(wù),搶在微軟支持的 OpenAI 前面,推動生成式人工智能應(yīng)用進入全球數(shù)千萬的手機和家庭,并贏得競爭。
權(quán)益組織 Signal Foundation 主席、谷歌前經(jīng)理梅雷迪思?惠特克(Meredith Whittaker)表示:“人工智能倫理已經(jīng)退居次要地位。如果科技倫理不能被置于利潤和增長之上,它們最終就不會起作用?!?/p>
對此谷歌表示,負(fù)責(zé)任的人工智能仍是該公司的首要任務(wù)。谷歌發(fā)言人布萊恩?加布里艾爾(Brian Gabriel)表示:“我們將繼續(xù)投資將人工智能原則應(yīng)用于技術(shù)的團隊?!睆氖仑?fù)責(zé)任人工智能研究的團隊在 1 月份的一輪裁員中至少減員 3 人,其中包括技術(shù)治理和項目主管。此次裁員影響了谷歌及其母公司的約 1.2 萬名員工。
多年來,谷歌一直引領(lǐng)著支撐當(dāng)前人工智能發(fā)展的大部分研究,然而在 ChatGPT 推出時,谷歌還沒有將對用戶友好的生成式人工智能技術(shù)集成到產(chǎn)品中。谷歌的員工們說,以往在將新技術(shù)應(yīng)用于搜索和其他重要產(chǎn)品時,谷歌會謹(jǐn)慎地評估自身的能力和道德倫理考量。
然而去年 12 月,谷歌高級管理層發(fā)布了“紅色警報”,并改變了對風(fēng)險的偏好。員工們說,谷歌的領(lǐng)導(dǎo)團隊決定,只要把新產(chǎn)品定位為“實驗”,公眾就會原諒其中的缺陷。不過,谷歌仍然需要讓科技倫理團隊加入進來。當(dāng)月,人工智能治理負(fù)責(zé)人簡恩?詹納伊(Jen Gennai)召開了負(fù)責(zé)任創(chuàng)新團隊的會議,該團隊負(fù)責(zé)維護谷歌的人工智能原則。
詹納伊建議,為了加快產(chǎn)品發(fā)布的步伐,谷歌可能有必要做出一些妥協(xié)。谷歌為幾個重要類別的產(chǎn)品進行打分,以衡量這些產(chǎn)品是否準(zhǔn)備好向公眾發(fā)布。在一些領(lǐng)域,例如兒童安全,工程師仍然需要 100% 解決潛在問題。但她在會上表示,在其他領(lǐng)域,谷歌可能沒時間繼續(xù)等待。她說:“‘公平’可能不是,并不需要達到 99 分。在這個方面,我們可能只要到 80 分,85 分,或更高的水平,就可以滿足產(chǎn)品發(fā)布的需求?!边@里的“公平”指的是減少產(chǎn)品的偏見。
今年 2 月,谷歌一名員工在內(nèi)部消息群中提出:“Bard 的問題不僅僅是毫無用處:請不要發(fā)布這款產(chǎn)品?!庇薪?7000 人查看了這條消息。其中許多人都認(rèn)為,在簡單的事實問題上,Bard 的回答自相矛盾,甚至大錯特錯。然而消息人士透露,詹納伊在次月駁回了團隊成員提交的風(fēng)險評估報告。當(dāng)時報告的結(jié)論是 Bard 尚未做好準(zhǔn)備,可能造成危害。不久之后,谷歌就面向公眾開放了 Bard,并將其稱作是一次“實驗”。
在一份聲明中,詹納伊表示,這不僅僅是她這個層級的決定。在團隊做出評估之后,她“列出了潛在風(fēng)險清單,并將分析結(jié)果”升級提交給產(chǎn)品、研究和業(yè)務(wù)線的高級管理者。她說,該團隊隨后判斷,“可以通過有限制的實驗性發(fā)布的形式向前推進,包括繼續(xù)進行預(yù)訓(xùn)練,提高安全圍欄,以及做出適當(dāng)?shù)拿庳?zé)聲明”。
作為一個整體,硅谷仍然在努力解決競爭壓力和技術(shù)安全之間的矛盾?!叭说兰夹g(shù)研究中心”在最近的一次演示中表示,人工智能研究者與專注于人工智能安全的研究人員的數(shù)量之比達到 30:1。這表明,在大型組織中提出對人工智能的擔(dān)憂往往會孤掌難鳴。
隨著人工智能的加速發(fā)展,人們正在越來越擔(dān)憂人工智能對社會的不利影響。作為 ChatGPT 和 Bard 背后的技術(shù),大語言模型從新聞報道、社交媒體貼文和其他互聯(lián)網(wǎng)信息源處獲得大量文字信息,隨后用這些信息來訓(xùn)練軟件,讓軟件根據(jù)用戶的輸入信息或問題自動預(yù)測并生成內(nèi)容。這意味著,從本質(zhì)上來看,這些產(chǎn)品有可能會產(chǎn)生攻擊性、有害或不準(zhǔn)確的言論。
然而,ChatGPT 在首次亮相時引發(fā)了轟動。到今年年初,這方面的發(fā)展已經(jīng)無法回頭。2 月份,谷歌開始發(fā)布一系列的生成式人工智能產(chǎn)品,推出聊天機器人 Bard,隨后升級了視頻平臺 YouTube。當(dāng)時谷歌表示,YouTube 的創(chuàng)作者很快就可以在視頻中進行虛擬換裝,以及使用生成式人工智能創(chuàng)建“奇幻的電影場景”。兩周后,谷歌宣布谷歌云加入新的人工智能功能,展示了谷歌 Docs 和 Slides 等服務(wù)如何自動創(chuàng)建演示文稿、銷售培訓(xùn)文件和電子郵件。同一天,谷歌還宣布將把生成式人工智能融入醫(yī)療健康產(chǎn)品線。員工們表示,他們擔(dān)心,這樣的發(fā)展速度意味著谷歌沒有足夠的時間來研究人工智能潛在的危害。
是否應(yīng)該以符合科技倫理的方式去開發(fā)尖端的人工智能技術(shù),長期以來這一直是谷歌內(nèi)部爭論的一個話題。在過去幾年里,谷歌產(chǎn)品發(fā)生的錯誤備受矚目。例如,在 2015 年一起令人尷尬的事件中,谷歌相簿錯誤地將一名黑人軟件開發(fā)者和他朋友的照片標(biāo)記為“大猩猩”。
三年后,谷歌表示,沒有修復(fù)底層的人工智能技術(shù),而是刪除了搜索關(guān)鍵詞“大猩猩”、“黑猩猩”和“猴子”的所有結(jié)果。根據(jù)谷歌的說法,“一群不同背景的專家”評估了這一解決方案。該公司還成立了人工智能倫理部門,主動開展相關(guān)研究,確保人工智能對用戶更加公平。
然而根據(jù)多名在職員工和前員工的說法,一個重要轉(zhuǎn)折點是人工智能研究員蒂姆尼特?格布魯(Timnit Gebru)和瑪格麗特?米切爾(Margaret Mitchell)的離職。他們曾共同帶領(lǐng)谷歌的人工智能倫理團隊。然而,因為一場關(guān)于谷歌人工智能研究公平性的爭議,他們分別在 2020 年 12 月和 2021 年 2 月離開。最終,負(fù)責(zé)管理他們工作的計算機科學(xué)家薩米?本吉奧(Samy Bengio)和其他幾名研究者也在幾年時間里紛紛離職,加入了谷歌的競爭對手。
丑聞發(fā)生后,谷歌也采取措施試圖恢復(fù)公眾聲譽。負(fù)責(zé)任人工智能團隊在當(dāng)時的工程副總裁瑪麗安?克羅克(Marian Croak)的領(lǐng)導(dǎo)下進行了重組。她承諾,將把人工智能倫理團隊的規(guī)模擴大一倍,并強化該團隊與公司其他部門的聯(lián)系。
不過即使在公開發(fā)表聲明之后,一些人也發(fā)現(xiàn),在谷歌從事人工智能倫理工作難度很大。一名前員工表示,他們提出要求,解決機器學(xué)習(xí)公平性的問題。然而他們也發(fā)現(xiàn),自己往往不被鼓勵這樣做,以至于甚至影響了他們工作的績效打分。他表示,經(jīng)理們也提出抗議,認(rèn)為人工智能倫理問題的提出妨礙了他們“真正的工作”。
那些繼續(xù)在谷歌從事人工智能倫理研究的員工則面臨兩難:如何既能保住自己在谷歌的工作,又能繼續(xù)推進這方面研究。亞倫?穆羅希(Nyalleng Moorosi)曾是谷歌的研究員,目前則在格魯布創(chuàng)立的“分布式人工智能研究所”擔(dān)任高級研究員。她表示,人工智能倫理研究崗位的設(shè)立就是為了說明,技術(shù)可能沒有做好大規(guī)模發(fā)布的準(zhǔn)備,而公司需要放慢速度。
兩名員工表示,到目前為止,谷歌對產(chǎn)品和功能的人工智能倫理審核幾乎完全是自愿性質(zhì)的,僅有的例外是研究論文的發(fā)表,以及谷歌云對客戶合作和產(chǎn)品發(fā)布的審核。生物識別、身份識別,以及與兒童相關(guān)的人工智能研究必須由詹納伊的團隊進行“敏感話題”審核,但其他項目不一定需要。不過,一些員工也會在沒有被要求的情況下聯(lián)系人工智能倫理團隊。
盡管如此,當(dāng)谷歌產(chǎn)品和工程團隊的員工試圖了解,谷歌的人工智能為何在市場上進展緩慢時,他們往往會注意到公眾對人工智能倫理的關(guān)切。但谷歌的一些人相信,新技術(shù)應(yīng)當(dāng)更快地被提供給公眾,以便通過公眾反饋對技術(shù)進行優(yōu)化。
另一名前員工表示,在紅色警戒發(fā)布之前,谷歌工程師可能很難接觸到公司最先進的人工智能模型。他說,谷歌的工程師經(jīng)常會通過研究其他公司的生成式人工智能模型來進行頭腦風(fēng)暴,探索這項技術(shù)的可能性,隨后再去研究如何在公司內(nèi)部去實現(xiàn)這一技術(shù)。
谷歌前產(chǎn)品經(jīng)理、在 2020 年之前一直從事谷歌聊天機器人開發(fā)的高拉夫?內(nèi)馬德(Gaurav Nemade)表示:“毫無疑問我看到‘紅色警戒’和 OpenAI 的觸動給谷歌帶來的積極變化。他們真的能成為領(lǐng)導(dǎo)者,在自己的游戲中挑戰(zhàn) OpenAI 嗎?”近期的一系列變化,例如三星考慮在手機中用微軟必應(yīng)替換谷歌作為默認(rèn)搜索引擎,充分表明了技術(shù)的先發(fā)優(yōu)勢有多么重要。微軟必應(yīng)也采用了 ChatGPT 的技術(shù)。
谷歌的一些員工表示,他們認(rèn)為谷歌已經(jīng)對最新的生成式人工智能產(chǎn)品進行了足夠的安全檢查,并且 Bard 比競爭對手的聊天機器人更安全。然而,現(xiàn)在的當(dāng)務(wù)之急是快速發(fā)布生成式人工智能產(chǎn)品,因此再怎么強調(diào)科技倫理問題都是徒勞的。
研發(fā)新人工智能功能的團隊目前正在封閉狀態(tài)中,因此普通的谷歌員工很難看到谷歌人工智能技術(shù)的全貌。以往,員工還可以通過公司的郵件組和內(nèi)部頻道來公開表達自己的疑慮,但現(xiàn)在谷歌以減少毒性為由提出了一系列社區(qū)指南,限制員工這樣去做。幾名員工表示,他們認(rèn)為這些限制是控制言論的一種方式。
米切爾表示:“這帶來了挫敗感。我們的感覺是,我們到底在做什么?”即使谷歌沒有明確的指令,要求停止科技倫理的工作,但在當(dāng)前的氛圍下,從事這類工作的員工會很明顯的感覺到,自己不受支持,最終可能會因此減少工作量?!霸诠雀韫芾韺庸_討論科技倫理問題時,他們傾向于探討假想的未來,即全能的技術(shù)無法被人類控制,而不太涉及已經(jīng)可能帶來危害的日常場景。這種做法也被一些業(yè)內(nèi)人士批評為一種營銷形式。
曾在谷歌擔(dān)任研究科學(xué)家的艾爾馬蒂?艾爾瑪穆迪(El-Mahdi El-Mhamdi)于今年 2 月從谷歌離職,原因是谷歌拒絕正面探討人工智能倫理問題。他表示,去年底他參與合著的一篇論文提出,從數(shù)學(xué)上來看,基礎(chǔ)性的人工智能模型不可能同時做到大規(guī)模、健壯,以及保障隱私安全。
他表示,谷歌通過雇傭關(guān)系對他參與的研究提出質(zhì)疑。隨后,他并沒有為自己的學(xué)術(shù)研究辯護,而是直接放棄了與谷歌的雇傭關(guān)系,選擇了學(xué)術(shù)身份。他說:”如果你想留在谷歌,就必須為整個系統(tǒng)服務(wù),而不是與其發(fā)生沖突?!?/p>
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。