人类本性都有傲慢与偏见,那么人工智能会有偏见吗?

发布时间:2020-08-11 17:10:50 作者:欧能ABC
来源:ITPUB博客 阅读:131

人们总有或多或少的刻板印象,如国籍、肤色、学历、性别等。在人们的心目中,地方团体往往是陈词滥调。例如,女性应该温柔听话,工程师和技术人员大多是男性,白人比黑人有更高的智力等等。每个人都是个体。人们对他人有不同的态度和看法是正常的。出乎意料的是,人工智能也有一种“刻板印象”。



最近,Facebook的人工智能实验室进行了一项有趣的新研究。他们发现,人工智能偏见不仅存在于国家内部,也存在于国家之间。



研究人员测试了五种流行的对象识别算法,包括Microsoft Azure、Clarifai、Google Cloud Vision、Amazon Rekognition和IBM Watson,以了解每个程序的工作原理。用于测试的数据集来自不同国家的家庭,包括穷人和穷人,包括117个类别,从鞋子、肥皂到沙发。



在这项研究中,研究人员发现,当被要求识别低收入家庭时,目标识别算法的准确度比高收入家庭低10%。随着月收入的增加,误差也会增加。特别是对于谷歌、微软和亚马逊来说,低收入家庭识别算法的准确性很低。



与索马里和布基纳法索相比,该算法识别美国产品的精度提高了15-20%。



这种现象有很多原因。最常见的原因是,在创建算法时,它们经常受到相关工程师的生活和背景的影响。这些人大多来自高收入阶层的精英阶层。他们的想法和概念是基于他们的想法和概念。人工智能算法也基于它们的思想和概念。



人工智能具有强大的计算能力。在该算法的基础上,很容易获得海量数据和识别信息。然而,令人担忧的是,它的偏见不仅在确定对象方面有偏见,而且在种族和性别歧视方面也有偏见。



研究人员测试了微软、IBM和Facebook的人脸识别能力。他们发现白人男性的准确率高于99%,而黑人女性则有47%的错误率。



亚马逊开发了一个人工智能程序来阻止简历的选择,这也显示了对女性的歧视。选择简历后,男人比女人多。包含女性角色的简历的权重将会降低,甚至两所女子学院的研究生评分也会降低。可见,人工智能也具有自我选择和不可磨灭的“歧视”。但另一方面,人工智能似乎是极其平等的。例如,最近发射的人工智能机器人,它完全可以实现每个人的态度是平等的。它不会改变你对你的态度,因为你有钱,还有你的性。他会像一个人一样温柔地提出问题和回答问题,并及时接受批评。电话机器人好不好用?许多公司都争先恐后地回答这个问题。


推荐阅读:
  1. 【翻译】会有Silverlight6吗?
  2. python学习人工智能容易吗

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

人工智能 人类 傲慢与偏见

上一篇:数据分析:OLS回归分析

下一篇:Java和JavaScript的比较(转)

相关阅读

您好,登录后才能下订单哦!

密码登录
登录注册
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》