当前位置: CNMO > 新闻 > 新闻 > 消息 > 正文

谷歌践行负责任AI开发原则 使用“差别隐私”保护数据

CNMO 【编译】 作者:陈祥凯,韩媛 韩媛 2019-03-07 15:56
评论(0
分享

  【CNMO新闻】谷歌为旗下机器学习架构TensorFlow发布了一种可以让开发者通过几行额外代码就能提升AI模型隐私性的新模组。

  TensorFlow是目前最受欢迎的机器学习程序搭建工具,并被全世界的开发者用于开发文本、音频和影像识别算法这样的程序。在本次发布的TensorFlow Privacy模组的帮助下,这些开发者将能够用一种被称为“差别隐私”的统计方法来更好地保护用户数据隐私。

保护数据隐私
保护数据隐私

  这一工具的诞生践行了谷歌“负责任AI开发”的原则,谷歌产品经理Carey Radebaugh表示:“如果我们不把差别隐私这样的特性添加到TensorFlow中的话,谷歌内外的团队都无法轻松地使用它,因此对我们来说,为TensorFlow增添这一模组并将其开源是非常重要的。”

  差别隐私的运作机制非常复杂,它可以防止由用户数据训练而成的AI模型泄露个人信息,这是一种AI模型常用的保护个人信息的途径,苹果在iOS 10包含的AI服务中采用了该方法,而谷歌也将其应用于一系列AI特性中,例如Gmail的智能回复功能。

  当然,差别隐私也有缺点,谷歌科学家Erlingsson表示:“差别隐私会隐藏异常值,因此它有时也会将一些相关数据删除,特别是那些涉及到语言的复杂数据集,差别隐私的特性决定了AI系统不可能识别那些只在数据集里出现一次的信息,因此开发者可能需要考虑是否要增加某一特定类型数据的收集量,或者这些数据集中独一无二的信息有多大的相关性和可用性。”

  谷歌希望通过推出TensorFlow Privacy模组让全世界更多的开发者开始使用差别隐私,谷歌同时也希望能有更多的业内精英加入进来开发更多开源工具。Erlingsson表示:“仅仅通过添加几行代码以及调整一些参数就能向AI模型添加差别隐私功能是一项巨大进步,我们对此感到自豪。”

分享

加入收藏

网友评论 0条评论
用其他账号登录:
请稍后,数据加载中...
查看全部0条评论 >
火热围观
潮机范儿

Copyright © 2007 - 北京沃德斯玛特网络科技有限责任公司.All rights reserved 发邮件给我们
京ICP证-070681号 京ICP备09081256号 京公网安备 11010502036320号