人工智能该如何远离偏见与歧视
在人工智能问题上,有个所谓 “黑盒子”的问题,即我们不能看到程序算法的内部,因此无法理解人工智能是如何做出决策的。如果没有解决好这个问题,一些涉嫌歧视的数据将被算法永久性地编码进人工智能程序中,从而影响未来人类与人工智能的关系。不过,仅靠纯粹的技术手段,很难实现对人工智能的每个阶段实现无漏洞监控,同时还需通过人工评估和干预,才能确保偏见和歧视被彻底消除。
要消除人工智能潜在的歧视问题,第一步是打开算法“黑匣子”。出于专利保护和商业机密的考虑,许多公司的人工智能程序算法都处于保密状态。不过,这一状况正得到改变,目前人工智能领域正在加快代码的开源,制定新的透明度标准,来提高人工智能产品的可靠性。AI NOW是美国纽约大学一个倡导算法公平的非营利组织,它提倡 “程序员必须对算法得出的结论做出解释,否则就不能投入使用”。
目前,相当一部分互联网巨头开始正视这一点。如谷歌开发的几个人工智能项目,程序员为机器学习增加了手动限制,使输出的信息更准确,可理解性更高。美国国防部高级研究计划局还资助了一项名为XAI(可解释的人工智能)的计划,旨在打开人工智能的 “黑匣子”,以保证用户更好地控制人工智能程序。微软首席执行官萨蒂亚·纳德拉也认可 “算法问责制”的必要性。
但通过打开算法 “黑匣子”,制定法规和政策来确保消除人工智能的偏见和歧视,这还远远不够。因为偏见与歧视不光存在于算法中,还存在于人工智能得出的结论、预测和建议中。
以虚拟助手为例,处理比较简单的任务时,人工智能系统会偏向使用女声(例如Apple的Siri和亚马逊的Alexa);而解决疑难问题时,系统则选用男声(例如IBM的Watson和微软的爱因斯坦)。由于在人工智能行业女性从业人数偏少,这更是增加了性别歧视的可能性。
鉴于此,我们应加强对人工智能所使用的数据、算法以及模型的评估,以剔除潜在的可导致偏见与歧视的因素,并且加强程序员的 “算法问责制”,这样才能提高人工智能产品的可靠性,最终建立起人机信任。
时间:2018-10-16 18:04 来源: 转发量:次
声明:本站部分作品是由网友自主投稿和发布、编辑整理上传,对此类作品本站仅提供交流平台,转载的目的在于传递更多信息及用于网络分享,并不代表本站赞同其观点和对其真实性负责,不为其版权负责。如果您发现网站上有侵犯您的知识产权的作品,请与我们取得联系,我们会及时修改或删除。
相关文章:
相关推荐:
网友评论:
最新文章
热门文章