IT之家 5 月 3 日消息,微軟公司近日發(fā)布了新的透明度報告,概述了 2023 年制定并部署了各種措施,負責任地發(fā)布各項生成式產品。
微軟于 2023 年 7 月簽署自愿協(xié)議,承諾每年定期公布人工智能透明度報告,希望建立負責任的人工智能系統(tǒng)并讓其健康、安全發(fā)展。
微軟在《負責任的人工智能透明度報告》中,介紹了在安全部署人工智能產品方面取得的成就,共創(chuàng)建了 30 個負責任的人工智能工具,擴大了負責任的人工智能團隊,并要求開發(fā)生成式人工智能應用程序的團隊在整個開發(fā)周期中衡量和繪制風險。
該公司指出,它在其圖像生成平臺中添加了內容憑證,該平臺在照片上添加水印,將其標記為由人工智能模型制作。
該公司表示,Azure AI 客戶可以使用檢測仇恨言論、性內容和自殘等問題內容的工具,以及評估安全風險的工具。
它還正在擴大其紅隊(滲透測試團隊)工作,包括故意嘗試繞過其人工智能模型中的安全功能的內部紅隊,以及紅隊應用程序,以允許在發(fā)布新模型之前進行第三方測試。
IT之家附上參考地址
廣告聲明:文內含有的對外跳轉鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結果僅供參考,IT之家所有文章均包含本聲明。