人工智能大行其道:科技公司需要设置“首席偏差官”
英国皇家历史学会最近透露,学会应用人工智能算法停止的初次研讨显现,英国的劳动力存在“大范围性别偏向”。基于人工智能的系统搜集了整个英国互联网上的材料,排查了现有男女职位的散布。该项研讨调研了108个不同的经济行业后发现,其中87%的行业存在倾向于男性的不对等,招致任高层指导职位的男性不成比例。
这项创始性研讨很好地阐明了人工智能在阐释我们的世界时具有极大的潜力,毕竟,人工智能的一个强大功用就是剖析超大量的数据并在其中找到我们人类无法找到的形式。不过,固然人工智能能够协助发现偏向和不公平,但实践上人工智能也可能招致更多偏向和不公平。
来看一下以下的例子:加纳裔美国计算机科学家Joy Buolamwini(https://twitter.com/jovialjoy?lang=en)如今是麻省理工学院媒体实验室的罗德学者和研讨员,她以前读研讨生时发现她运用的人工智能面部辨认系统无法辨认她的脸。而只要在她戴上白色面具后系统才干确认她的存在。在Buolamwini案例中,面部辨认系统不能辨认她,由于用于锻炼软件的数据池里大局部是白色面孔,而且缺乏足够的多样性。换句话说,问题始于数据自身,人工智能系统要从这个有缺陷的数据汇合里学习,系统越来越“智能”时,问题也就会挥之不去。其实,实践的系统会变得越来越笨,由于偏向自身会进一步强化偏向。Buolamwini发起了算法正义联盟(https://www.ajlunited.org/)方案,方案旨在推进大家对人工智能偏向的关注及培训组织实行最佳人工智能理论。Buolamwini希望借方案推进更公平、更道德的人工智能办法,这一任务在人工智能驱动决策制定的时期显得特别重要。
一众企业不只必需重新定位数据集和算法培训,还必需重新定位盘绕人工智能的流程和人员。(图:美联社)
含偏向的人工智能也扩展到了其他范畴,如刑事司法、招聘和招聘等等。IBM发表的一份研讨报告提出,曾经定义和分了类的人类偏向达180之多,每种偏向都能够干扰判别及影响最终决策。人工智能则很容易复制这些偏向。假定一家公司要应用人工智能来肯定员工的工资,定工资的规范局部基于薪酬历史。这就可能会令女性处于相当不利的位置(https://www.brookings.edu/blog/techtank/2019/01/03/artificial- intelligence-and-bias-four-key-challenges/),根本就是由于她们过去不断遭到歧视。再例如,引荐引擎也会从用户的偏好中学习并提出相应的倡议。
各个组织要如何才干肯定本人及人工智能系统所依赖的数据的确是适宜的?而且不会强化歧视形式呢?
与许多其他问题一样,克制问题的第一步是供认问题的存在。企业不只必需重新定位数据集和算法培训,还必需重新定位盘绕人工智能的流程和人员。我们希望有一个更公平的工作场所,在这个过程中处理这些问题就至关重要。我们必需有特地的团队和流程,以至可能需求创立诸如“首席偏向官”这样的职位,首席偏向官的工作就是检查数据并确保严厉的道德规范,人工智能工具将会在我们的工作环境里越来越提高,首席偏向官的任务是与偏向和成见做斗争。
例如,首席偏向官能够经过推进多样化,影响工程团队的招聘,然后再定期检查工程师为人工智能算法选用的数据输入。这是“人员就是政策”的一个例子。要认识到人工智能并非绝对牢靠,这一点很重要,拙劣的输入意味着拙劣的输出。首席偏向官要定期停止绩效评价,要针对可查算法输出停止控制测试及持续微调。
各组织需确保多种背景的运用,多种背景能够避免扭曲和盲点。 Buolamwini自己则倡议组织要检查不同偏向集的算法 ,一系列不同的视角能够增强这方面的工作,能够减少偏向数据及确保更公平的算法代码。
修复算法偏向需求管理层、人力资源和工程师的共同努力,三方面协作才干有效地将有认识和无认识的人类成见扫除在系统之外。人类的愚笨是永远无法完整消弭的,但认识了人类的愚笨后,我们就能够打造更公平、更聪明的人工智能系统,能够真正令我们的工作场所决策少一些人工、多一些智能。
时间:2019-03-23 10:03 来源:未知 转发量:次
声明:本站部分作品是由网友自主投稿和发布、编辑整理上传,对此类作品本站仅提供交流平台,转载的目的在于传递更多信息及用于网络分享,并不代表本站赞同其观点和对其真实性负责,不为其版权负责。如果您发现网站上有侵犯您的知识产权的作品,请与我们取得联系,我们会及时修改或删除。
相关文章:
相关推荐:
网友评论: