【PConline 资讯】各位是否还记得,两年前谷歌将黑人认成“大猩猩”这个乌龙事件?正因此次事件造成的不良影响,让Google意识到:与其担心AI伤人,更严重的是AI偏见问题。为了防止AI“胡来”,Google为其制定了七项“道德”准则。 事情的原委是这样的,2015年,一位名叫Jacky Alciné的黑人软件开发人员在推特上透露,Google Photos使用的图像分类器将一名黑人女性称为“大猩猩”(Gorillas),引起了轩然大波。事发后,谷歌为此深表歉意,并着手处理这一漏洞。 不仅如此,谷歌还提出AI技术的开发道德准则,并且成立了专门的机器学习道德部门,对公司的产品和服务进行分析测试,提出改进意见,尽可能避免AI偏见的产生。不光是Google,从IBM到Airbnb,每家公司都在努力确保自己的算法不会出现类似的偏差。 为此,今年6月,Google首席执行官Sundar Pichai发布了公司的七项人工智能原则,指导谷歌在这些方面的工作和研究,包括确保Google员工不会制造或加强不公平的AI偏见,并表示AI技术的开发和使用将在未来许多年内对社会产生重大影响: •对社会有益 除了那次不愉快的“大猩猩”事件外,哈佛大学的研究员Latanya Sweeney表示:谷歌搜索中存在种族歧视,当搜索类似黑人名字时,会比搜索类似白人名字更有可能出现与“被逮捕”相关的广告。这些现象都是我们的部门成立的原因,不应该让我们的用户看到这些,我们需要首先阻止这些偏见的产生。 实际上,对于AI偏见这件事,一份来自皮尤研究中心近期公布的研究结果显示:目前美国有58%的成年人认为,人工智能的算法极其程序将会始终包含对人类的偏见,人工智能算出的结果不能保持中立的态度。从受调查者的年龄来看,50岁以上的受访者中,有63%的人认为算法不中立;18-29岁的受访者中,也有48%的人认为算法一定会存在偏见。 如此看来,大众对AI偏见这件事存有共识。显然,解决AI偏见光靠Google一家公司还远远不够,需要有更多的公司加入其中。 |
正在阅读:如何防止AI将你认成“大猩猩”?光靠肤白可不行如何防止AI将你认成“大猩猩”?光靠肤白可不行
2018-11-20 00:15
出处:PConline原创
责任编辑:sunziyi
热门排行
IT百科
热门专题
网络设备论坛帖子排行
最高点击
最高回复
最新
-
541次
最省光纤的交换机-丰润达PON-PoE交换机
1 -
448次
哪种网线适合PoE供电?教你挑网线
2 -
159次
哪种网线适合PoE供电?教你挑网线
3 -
108次
丰润达推出全新24口全千兆网管型PoE交换机
4 -
72次
特色技术:带VLAN功能的安防专用PoE交换机
5 -
72次
丰润达首推48口万兆PoE交换机引领万兆安防监控
6 -
59次
不得不说的DF5700东风系列万兆交换机
7 -
52次
选择网吧交换机,需做到心中有数!
8 -
50次
不得不说的DF5700东风系列万兆交换机
9 -
49次
最省光纤的交换机-丰润达PON-PoE交换机
10
汽车资讯
最新资讯离线随时看
聊天吐槽赢奖品