IT之家 5 月 3 日消息,微软公司近日发布了新的透明度报告,概述了 2023 年制定并部署了各种措施,负责任地发布各项生成式产品。

微软于 2023 年 7 月签署自愿协议,承诺每年定期公布人工智能透明度报告,希望建立负责任的人工智能系统并让其健康、安全发展。

微软在《负责任的人工智能透明度报告》中,介绍了在安全部署人工智能产品方面取得的成就,共创建了 30 个负责任的人工智能工具,扩大了负责任的人工智能团队,并要求开发生成式人工智能应用程序的团队在整个开发周期中衡量和绘制风险。

该公司指出,它在其图像生成平台中添加了内容凭证,该平台在照片上添加水印,将其标记为由人工智能模型制作。

该公司表示,Azure AI 客户可以使用检测仇恨言论、性内容和自残等问题内容的工具,以及评估安全风险的工具。

它还正在扩大其红队(渗透测试团队)工作,包括故意尝试绕过其人工智能模型中的安全功能的内部红队,以及红队应用程序,以允许在发布新模型之前进行第三方测试。

IT之家附上参考地址

  • Responsible AI Transparency Report

友情提示

本站部分转载文章,皆来自互联网,仅供参考及分享,并不用于任何商业用途;版权归原作者所有,如涉及作品内容、版权和其他问题,请与本网联系,我们将在第一时间删除内容!

联系邮箱:1042463605@qq.com