专栏名称: 微软科技
微软中国的认证公众号,分享微软产品资讯,技术方案,成功案例,行业视野,精彩活动。第一时间获取微软在云计算,大数据,移动,企业社交商务等话题的解决方案。
目录
相关文章推荐
新浪科技  ·  【#蜜雪冰城称累晕员工是低血糖#】6月7日, ... ·  9 小时前  
北京生态环境  ·  北京碳市场平稳运行11个履约周期 有效促进碳减排 ·  9 小时前  
北京生态环境  ·  北京碳市场平稳运行11个履约周期 有效促进碳减排 ·  9 小时前  
新浪科技  ·  【独家 | ... ·  2 天前  
新浪科技  ·  【#小米SU7交付超25万台##雷军称强大的 ... ·  2 天前  
51好读  ›  专栏  ›  微软科技

构建负责任且大规模的生成式人工智能的七个启示

微软科技  · 公众号  · 科技媒体  · 2024-07-02 08:00

正文

请到「今天看啥」查看全文



随着 Microsoft Copilot 的推出,微软开始将人工智能技术整合至旗下所有产品中,所以公司需要构建一个更加集中化的系统来确保所有发布的产品均达到统一的高标准。为此,微软正在 Azure AI 中开发一个 RAI 技术栈,以便团队能够依靠统一的工具和流程。


此外,微软 RAI 专家团队还开创了一套新的管理方法,用以集中管理产品发布的评估和审批过程。依据“共识驱动框架”,该团队在技术栈的每个层面,以及产品发布的前、中、后阶段,都会审查产品团队在识别、评估和管理生成式人工智能可能带来的风险时所采取的措施。同时,团队也会考虑测试、威胁建模和“Red Teaming”(一种通过尝试破坏或规避安全功能来对新的生成式人工智能技术进行压力测试的方法)中收集的数据。


通过集中化的审查流程,微软能够更有效地发现并减少产品组合中的潜在安全漏洞,制定最佳实践策略,并确保与公司内部以及微软外部的客户和开发者的信息能够得到及时共享。


Sarah Bird 说:“技术发展日新月异。我们必须真正集中精力一蹴即至,然后最大限度地利用这些经验教训。”

04

为人们明确信息来源



人工智能技术在创建逼真的合成视频、音频和图像方面的能力日益精进,因此用户能够识别出人工智能生成内容的出处和来源就变得尤为关键。


今年2月,微软联合19家企业签署了一系列自愿性承诺,旨在在2024年美国大选期间打击人工智能的欺诈性使用以及潜在的 deepfakes 技术的滥用。承诺内容包括开发功能以阻止创建误导公众的虚假图像,嵌入元数据以追溯图像的来源,并为候选人提供一种机制,使他们能够举报自己被 deepfakes 技术伪造的图像。


微软已经开发并部署了媒体来源功能(又称“内容凭证”),允许用户验证图片或视频是否由人工智能生成。这一功能使用加密技术对人工智能生成的内容进行了标记和签名,并附上了关于其来源和历史的元数据,遵循了2021年创立的内容来源和真实性联盟(C2PA)制定的开放技术标准。微软 AI for Good 实验室也在加大力度识别深度伪造内容、追踪不良行为者并分析其策略。


Natasha Crampton 表示:“这些问题不仅是科技公司所面临的挑战,更是需要整个社会共同应对的挑战。”

05

将RAI工具交到客户手中



为了提高人工智能模型的输出质量,并防止生成式人工智能系统遭到滥用,微软正在积极向客户提供自身所采用的工具和安全措施,以便他们能够负责任地构建人工智能。这些资源包括开源工具、商业工具和服务,以及一系列协助企业构建、评估、部署和管理他们生成式人工智能系统的模板和指南。


2023年,微软推出了 Azure AI Content Safety,帮助客户识别并过滤掉人工智能模型中有害的输出,如仇恨、暴力、性或自残等内容。最近,Azure AI Studio 中还添加了新的工具(这些工具即将或已经可以使用),旨在帮助开发者和客户提高他们自己生成式人工智能系统的安全性和可靠性。这些新工具包括允许客户对其应用程序进行安全评估的功能,帮助开发者快速识别和解决漏洞,执行额外的风险和安全监控,并检测模型产生“幻觉”、生成虚假或虚构数据的情况。


Sarah Bird 表示:“关键在于,我们希望安全性能成为默认选项。”







请到「今天看啥」查看全文