4 月 28 日晚間消息,微軟原全球執(zhí)行副總裁、美國國家工程院外籍院士、英國皇家工程院外籍院士沈向洋今日表示,AI 是個黑盒子,人們在使用時需要更加地謹(jǐn)慎,也需要構(gòu)建更加負(fù)責(zé)任的系統(tǒng)。
近年來,人工智能取得的成就和進(jìn)步已經(jīng)超越了五到十年前人類的想象。按照基準(zhǔn)日期的設(shè)定,人工智能在演講、視覺和自然語言等方面的功能,已經(jīng)逐漸接近人類水平,在語音翻譯,智能交互等領(lǐng)域,人們已經(jīng)看到了越來越多 AI 賦能生活場景的真實案例。
AI,確實已經(jīng)在做一些獨立的決定了,但是,這些決定卻并不是我們都完全能夠知道的。在沈向洋看來,雖然得益于深度學(xué)習(xí)算法的突破,最近一次人工智能技術(shù)及其產(chǎn)業(yè)化確實取得了重大的突破性發(fā)展,但由于深度學(xué)習(xí)系統(tǒng)的復(fù)雜性與黑盒化,這導(dǎo)致了人工智能系統(tǒng)內(nèi)部的發(fā)展,存在著越來越多并不公開透明的地方。
據(jù)沈向洋介紹,在美國的部分州級區(qū)域,當(dāng)?shù)卣m然已實現(xiàn)了利用 AI 系統(tǒng)去審判罪犯罪行的業(yè)務(wù),但由于 AI 系統(tǒng)黑盒化的原因,官員們對于自己正在使用的 AI 系統(tǒng)理解并不深刻,在該系統(tǒng)的公正性受到外界質(zhì)疑并引來微軟技術(shù)團(tuán)隊的反向推理驗證之后,該系統(tǒng)最終被證實確實存在種族歧視、性別偏見等缺陷,但此前使用該系統(tǒng)的人員對此并不知曉。
“人們在使用 AI 的時候,需要更加地謹(jǐn)慎?!鄙蛳蜓蠼ㄗh人們在使用 AI 系統(tǒng)的時候,需要更加審慎。由于許多構(gòu)建人工智能技術(shù)和應(yīng)用的 AI 產(chǎn)品人員并沒有充分考慮公平和透明等社會性問題,而目前的 AI 系統(tǒng)更多是基于歷史數(shù)據(jù)的學(xué)習(xí)分析,于是自然也會存在一些特定的認(rèn)知偏差與理解誤區(qū)。
“在從弱人工智能走向強(qiáng)人工智能的過程中,或許我們更需要一個負(fù)責(zé)的人工智能?!鄙蛳蜓蟊硎尽6槍τ谌绾螛?gòu)建一個負(fù)責(zé)任的人工智能系統(tǒng),其介紹了微軟研究院提出的人工智能系統(tǒng)發(fā)展“六大原則”:公平、可靠和安全、隱私和保障、包容、透明、負(fù)責(zé)。
在沈向洋看來,人工智能發(fā)展的時候需要像其他工程技術(shù)領(lǐng)域一樣,需要有一個預(yù)設(shè)的標(biāo)準(zhǔn)和規(guī)約,除此之外,還需要產(chǎn)業(yè)界、學(xué)術(shù)界和政府等層面的人共同參與遵守,這樣 AI 才能更好地服務(wù)社會。
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。