2021年12月31日最新消息:微软推出了针对差异化隐私的AI工具包WhiteNoise
作者:访客发布时间:2023-04-24分类:暖心故事浏览:90评论:0
在本周在线举行的Build 2020开发者大会上,微软宣布为Azure机器学习增加了新功能,Azure是一个基于云的环境,用于培训、部署和管理AI模型。brinowaise是一个用于差异隐私的工具包,现在可以通过Azure和GitHub上的开源获得,增加了新的AI解释和公平工具,以及对数据、模型和实验的新访问控制。细粒度可追溯性和谱系的新技术;新的机密机器学习产品;以及新的工作流程责任文档。
这一努力是微软努力实现一个更可解释、更安全和“公平”的人工智能系统的一部分。研究表明,例如,面部识别系统的偏差是常见的,而人工智能有隐私问题,因为许多模型不能使用加密数据。除了今天推出的Azure机器学习功能,微软解决这些挑战和其他挑战的尝试还包括AI偏差检测工具、减少偏差错误的内部工作、AI道德清单和一个为AI追求提供建议的Aether委员会。此外,微软副总裁Eric Boyd表示,Xbox、Bing、Azure以及整个微软365团队为今天上午发布的一些工具包提供了开发信息,并自行使用。
“该组织现在正在研究如何开发易于解释和符合法规的AI应用程序,例如非歧视和隐私法规。他们需要将这些工具与这些AI模型放在一起,以便更容易解释、理解、保护和控制数据和模型。”博伊德在一次电话采访中告诉VentureBeat。“我们相信,让我们的AI方法独一无二的是,它为深入研究、扎实的方法和对开源的承诺奠定了坚实的基础。”
白瓦兹工具包是与哈佛大学定量社会科学研究所和工程学院的研究人员合作开发的。它使用差别隐私保护从数据中获取见解,同时可以保护姓名或出生日期等个人信息。一般来说,差分隐私需要在原始数据中注入少量噪声后才能馈入本地机器学习模型,这使得恶意行为者很难从训练好的模型中提取出原始文件。如果观察者看不到算法的输出,就不能认为是差分私有,所以算法在计算中是否使用了特定个体的信息。
白化提供了一个可扩展的差分私有算法和机制库,用于发布隐私保护查询和统计数据,以及用于定义分析和验证器的API,用于评估分析和计算数据集的总隐私损失。微软表示,它可以使一组医院合作,构建更好的癌症治疗效果预测模型,同时有助于遵守法律要求,保护医院信息隐私,确保个人患者数据不会从模型中泄露。
微软人工智能和工程与研究伦理委员会(Aether)支持的另一个工具包将于6月与Azure机器学习集成。Fairlearn旨在评估AI系统的公平性,缓解算法中发现的任何不公平问题。Fairlearn从仪表盘内部定义AI系统是否对人不公平,重点关注两类危害:分发危害和服务质量危害。当人工智能系统扩展或保留机会、资源或信息时,如在招聘、招生和贷款中,就会发生分配损害。服务质量损害是指一个系统是否对一个人和另一个人一样有效,即使没有扩展或隐藏任何机会、资源或信息。
Fairlearn遵循一种称为群体公平的方法,该方法旨在找出哪些个人群体面临伤害风险。科学家在工具包中指定了相关群体(如性别、肤色和种族),它们是针对特定应用的;群体公平是通过一组约束来形式化的,这需要AI系统行为的某些方面在群体之间具有可比性。
据微软,安永;专业服务公司Young用Fairlearn来评价关于性别的模型输出的公平性。工具包显示,男性和女性的积极贷款决定之间有15.3%的差异。然后,安永。Young的建模团队开发并训练了几个校正模型,并可视化了公平性和模型准确性之间的常见权衡。团队最终采用了最终模型,该模型优化并保留了整体精度,但将男女差异降至0.43%。
新工具包列表中的最后一个是expertaml,它于去年在alpha中首次亮相,但现在已在Azure机器学习中提供。Intertml结合了许多机器学习的可解释技术,有助于阐明视觉模型行为和预测背后的原因。它可以在任何给定的用例中推荐模型最重要的参数(或变量),并解释为什么这些参数很重要。
博伊德说:“我们希望向客户提供Azure机器学习,帮助他们理解和解释其模型的发展。“使用所有这些工具包,我们认为我们给了开发人员很大的力量来真正理解他们的模型——他们可以看到它们的可解释性和公平性,并开始理解他们拥有的其他参数。不愿意做出预测或以不同的方式改变模型。”
- 暖心故事排行
- 最近发表
- 标签列表
-