科技资讯:微软推出了一款名为WhiteNoise的人工智能隐私工具

导读新时代高科技不计其数越来越发达,小伙伴们看过不少科技新闻吧,在我们生活中应该也用到很多这些高科技东西,有哪些小伙伴值的关注的呢,今

新时代高科技不计其数越来越发达,小伙伴们看过不少科技新闻吧,在我们生活中应该也用到很多这些高科技东西,有哪些小伙伴值的关注的呢,今天就跟大家分享一篇有关科技方面知识,希望大家会喜欢。

在本周举行的Build 2020开发者大会(Build 2020 developer conference)上,微软宣布向Azure机器学习(Azure Machine Learning)添加新功能。Azure机器学习是一种基于云的环境,用于培训、部署和管理人工智能模型。WhiteNoise是一个针对不同隐私的工具包,现在既可以在Azure上使用,也可以在GitHub的开源平台上使用,加入了新的人工智能解释和公平工具,以及新的数据、模型和实验访问控制;用于细粒度追溯和沿袭的新技术;新的机密机器学习产品;和新的工作流程责任文档。

这一努力是微软朝着更易于解释、更安全、更“公平”的人工智能系统努力的一部分。研究表明,面部识别系统存在普遍的偏见,例如,人工智能存在隐私问题,因为许多模型无法使用加密数据。除了今天发布的Azure机器学习特性之外,微软还尝试着解决这些问题和其他挑战,包括人工智能偏见检测工具、减少偏见错误的内部努力、人工智能道德检查列表,以及一个就人工智能追求提供建议的委员会(Aether)。另外,微软公司副总裁埃里克·博伊德表示,Xbox、必应、Azure以及微软365部门的团队都参与了今天上午发布的一些工具包的开发,并亲自使用了这些工具包。

“企业现在正在研究如何开发易于解释和遵守规定(例如非歧视和隐私规定)的人工智能应用程序。”博伊德在接受VentureBeat电话采访时表示:“他们需要与这些人工智能模型相结合的工具,以便更容易地解释、理解、保护和控制数据和模型。”“我们认为,我们的人工智能方法是有区别的,它建立在深入研究的坚实基础上,采用经过深思熟虑的方法,并致力于开源。”

WhiteNoise工具包是与哈佛大学定量社会科学和工程学院(Harvard Institute for Quantitative Social Science and School of Engineering)的研究人员合作开发的,它利用了不同的隐私,使人们能够在保护个人信息(如姓名或出生日期)的同时,从数据中获得见解。通常,差异隐私需要在将原始数据输入本地机器学习模型之前向其注入少量噪声,从而使恶意行为者难以从经过训练的模型中提取原始文件。如果一个观察者看到一个算法的输出,却不知道它是否在计算中使用了某个特定个体的信息,那么这个算法就可以被认为是差分私有的。

WhiteNoise提供一个可扩展图书馆不同私人算法和释放机制保护隐私的查询和统计,以及api定义的分析和评估分析和验证器计算总损失数据隐私。微软说它可以使一群医院合作建立一个更好的预测模型在癌症治疗的疗效,例如,同时帮助坚持法律要求,保护医院信息的隐私,确保没有个别患者数据从模型中泄露出来。

另一个由微软人工智能和工程研究伦理委员会(Aether)支持的工具包Fairlearn,将于6月与Azure机器学习集成,旨在评估人工智能系统的公平性,并减轻算法中出现的任何不公平问题。在仪表板中,Fairlearn定义了人工智能系统是否对人做出不公平的行为,主要关注两种危害:分配危害和服务质量危害。当人工智能系统扩展或保留机会、资源或信息时,分配就会受到损害——例如,在招聘、学校录取和贷款方面。服务质量危害是指一个系统对一个人是否像对另一个人一样有效,即使没有机会、资源或信息被延长或保留。

Fairlearn遵循一种被称为“群体公平”的方法,该方法旨在发现哪些群体的个体有遭受伤害的风险。数据科学家指定工具包中的相关组(例如,性别、肤色和种族),它们是特定于应用程序的;群体公平是通过一组约束来形式化的,它要求人工智能系统的某些方面(或多个方面)的行为在群体之间具有可比性。

根据微软的说法,专业服务公司安永;Young使用Fairlearn来评估模型输出在生物性别方面的公平性。该工具包显示,男性和女性的积极贷款决策之间存在15.3%的差异。Young的建模团队随后开发并培训了多个矫正模型,并可视化了公平性和模型准确性之间的常见权衡。该团队最终得到了一个最终的模型,该模型优化并保留了总体精度,但将男性和女性之间的差异降低到了0.43%。

在新工具包的列表中,最后一个是释义ml,它去年在alpha中首次出现,但是今天在Azure机器学习中也可以使用。expltml合并了许多机器学习解释技术,帮助通过可视化模型的行为和预测背后的推理来解释。它可以推荐在任何给定用例中对模型最重要的参数(或变量),并且可以解释为什么这些参数很重要。

博伊德说:“我们希望通过Azure机器学习向广大客户提供这一服务,帮助他们理解和解释他们的模型所发生的事情。””(这些工具包),我们认为我们已经给了开发人员大量的权力真正理解他们的模型,他们可以看到他们的可解释性[和]公平,并开始理解其他参数不满意做出预测或摇摆的模型以不同的方式。”

免责声明:本文由用户上传,如有侵权请联系删除!