当前位置: CNMO > 新闻 > 新闻 > 消息 > 正文

人工智能加入数据不平等算法 “集中”问题由人类来决策

CNMO 【编译】 作者:唐亚,韩媛 韩媛 2019-03-08 13:49
评论(0
分享

  【CNMO新闻】人工智能系统正被用于刑事判决,它们可以基于面部的人格剖析进行简历筛查,还可以进行医疗保健登记等其他任务。

  但是,人工智能可能会对如何解决问题产生误解、或者放大现有不平等的现象。例如,许多公司都有算法试图通过他们的脸来确定一个人的特征,比如猜测他们的性别。美国公司开发的系统在分类白人男性方面往往比分类女性和肤色较深的人群做得更好,对于皮肤黝黑的女性,该系统的表现最差,然而,在中国开发的系统中,往往在偏白肤色的判断上更糟糕。差异的产生并不是因为一个群体的面孔比其他群体更容易分类,相反,两种算法通常都是在大数据集上进行训练,而这些数据并不像整体人口那样多样化。

人工智能
人工智能

  直到最近,研究人员才开始开发识别算法和数据不平等的算法,算法可以被编程以识别它们自己的缺点,并且通过请求一个人来协助该任务。

  专家建议使用已经普及的相同人工智能方法,以自动方式对所有内容进行评分。然后,使用新技术来自动定位算法在不同受保护人群中的准确性的潜在不平等性,并将关于某些个体的决策移交给不同的人。

  这种方法并没有消除偏见,它只是“集中”了对较小决策不确定性,然后由人们使用人类常识来处理,人工智能仍然可以执行大部分决策工作。

  这表明人工智能算法与人类共同工作,既可以获得人工智能决策的优势,也可以让人类有更多的时间来处理不确定的问题。

分享

加入收藏

网友评论 0条评论
用其他账号登录:
请稍后,数据加载中...
查看全部0条评论 >
火热围观
潮机范儿

Copyright © 2007 - 北京沃德斯玛特网络科技有限责任公司.All rights reserved 发邮件给我们
京ICP证-070681号 京ICP备09081256号 京公网安备 11010502036320号