IT之家 8 月 27 日消息,人工智能(AI)的發(fā)展給人類帶來了許多便利,但也引發(fā)了一些嚴重的問題。據(jù) Businessinsider 報道,最近,一項新的研究發(fā)現(xiàn),自動駕駛汽車中的行人檢測軟件可能對不同膚色、性別和年齡的行人有不同的識別效果,導(dǎo)致有色人種和兒童面臨更高的安全風險。
這項研究由英國和中國的研究團隊共同完成,他們測試了八種流行的行人檢測軟件在不同情況下的準確性。結(jié)果顯示,性別對識別效果的影響較小,但膚色和年齡則有明顯的差異。相比于淺膚色和成年人,深膚色和兒童被檢測到的概率分別低了 7.52% 和 19.67%。
研究團隊認為,這種偏見是由于許多公司使用的開源 AI 系統(tǒng)中存在的偏見造成的。這些開源 AI 系統(tǒng)是基于大量數(shù)據(jù)訓練出來的,但這些數(shù)據(jù)并不一定能代表真實世界中的多樣性。因此,當這些 AI 系統(tǒng)被用于自動駕駛汽車時,就可能出現(xiàn)對某些群體不公平或歧視的情況。
研究團隊呼吁立法者對自動駕駛汽車軟件進行監(jiān)管,以防止其檢測系統(tǒng)出現(xiàn)偏見。
IT之家附研究論文地址:點此直達。
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。