阿蓬信息门户网

您当前的位置 : 阿蓬信息门户网>财经>「博彩送首存」AI自学成才,招聘引擎竟然重男轻女!原因让人无语
「博彩送首存」AI自学成才,招聘引擎竟然重男轻女!原因让人无语
2020-01-11 13:07:16   阅读量:2689    作者:匿名
摘要:然而,据团队成员对路透社表示,令他们万万没想到的是,这个人工智能引擎竟然教会了自己歧视女性。由于基本的学习信息存在缺陷,导致自学完毕的ai程序认为,黑人再犯罪的可能性是白人的两倍。但这并不意味着企业将就此放弃使用ai系统招聘人才的念头。

     

    「博彩送首存」AI自学成才,招聘引擎竟然重男轻女!原因让人无语

    博彩送首存,人工智能技术的不断成熟,让越来越多的领域开始将其应用到日常生产活动中。然而,莫名其妙发出令人毛骨悚然笑声的人工智能音响,发生过撞死行人事件的自动驾驶汽车,经常“认错人”的面部识别技术,让一些人也产生了:人工智能技术是否真的可靠的疑问。

    近日,路透社的一篇报道又指出,在一群求职者中筛选顶尖人才时,亚马逊公司的机器学习专家发现了一个大问题:他们的新招聘引擎不喜欢女性。

    这个亚马逊公司自主研发的人工智能招聘引擎,通过自主学习出现了重男轻女的情况,对女性产生偏见,且没有改进的余地。最终,公司不得不将它抛弃。

    ▲亚马逊招聘日手册 图据路透社

    ai偏爱男性用词简历

    据路透社报道,这项ai试验项目始于亚马逊公司发展的关键时期。一方面,由于低成本计算能力的激增,ai的运用在科技领域越来越具吸引力。

    而另一方面,监管文件显示,同一时期,亚马逊人力资源部门的大举招聘行动也正在孕育阶段:从2015年6月开始,该公司的全球员工人数增加了两倍多,达到57.57万人。

    为缓解人力资源部门的工作压力,提高工作效率,2014年,亚马逊爱丁堡工程中心成立了一个大约12人的研发团队。知情人士表示,其目标正是开发一款人工智能技术引擎,可以自动整理简历,并从中筛选出最优秀的应聘者。这样招聘人员就不必再花数个小时来审查工作简历。

    据路透社报道,根据最初设想,ai系统将为所有求职者打出一星到五星的评分,就像购物者给亚马逊销售的产品评分一样。研究人员希望这个招聘程序能够做到“输入100份简历,它可以自动列出前5名,公司据此而优先雇用他们”。

    为此,研究团队创建了500个计算机模型,然后教会每个模型识别曾在以前的应聘者简历中出现的约5万个措辞表达方式。然而,据团队成员对路透社表示,令他们万万没想到的是,这个人工智能引擎竟然教会了自己歧视女性。

    据悉,这些算法让ai自己学会了忽视求职者普遍具备的技能,例如编写各种计算机代码的能力等。不仅如此,他们开始青睐于那些用男性工程师简历中诸如“执行”“捕获”等常见动词来描述自己的候选人。

    到了2015年,亚马逊意识到,这个招聘系统并没有对应聘者进行性别中立的评估,它通过自学得出了男性候选人更可取的结论。于是,它自己重新设计了一套筛选系统,据知情人士透露,这个系统甚至降低了两所全女子学院毕业生的评级。

    与此同时,这个ai系统还认为,简历中出现“执行”和“捕获”等在男性工程师使用频率明显更高的词语,应征者的候选排名就应该更高。

    尽管,亚马逊曾尝试对程序进行更新,删除性别触发词和其他可能存在偏见歧视的词语,力图使其保持中立,但这并没有保证机器不会设计出其他可能具有歧视性的筛选方式。

    不仅如此,性别偏见并非这个ai系统唯一的问题。据知情人士表示,支持模型判断的数据也存在问题,这意味着不合格的候选人常被推荐到各种工作岗位。他们称这项技术几乎就是随机返回结果,最终,亚马逊公司在去年年初解散了团队,因为高管们对这个项目已失去信心。

    ▲正在排队应聘亚马逊工作的人 图据路透社

    人工智能工具并非万无一失

    亚马逊ai系统的失败根源在于,该系统是根据公司近10年收到的简历进行学习。而科技行业正是男性占主导地位的领域,因此这里面大部分申请者都是男性。这一失败案例再次强调了机器学习的局限性。

    卡内基梅隆大学人工智能专家尼哈尔·沙阿向路透社表示,ai工具并非万无一失,最好不要100%依赖ai工具,因为它们容易出现无法预见以及无法解释的故障。“如何确保算法公平,如何证明它们是真正可理解、真实可行的,还有很多工作要做。”沙阿表示。

    此前,便有人提出过这样的疑问:根据具有偏见的信息,如何能训练出可靠和具有一致性的算法?

    据英国《独立报》报道,去年5月的一份报告就曾指出,美国一个风险评估法庭使用的ai电脑程序,对黑人囚犯持有偏见。由于基本的学习信息存在缺陷,导致自学完毕的ai程序认为,黑人再犯罪的可能性是白人的两倍。

    性别歧视、种族歧视和其他根深蒂固的偏见,很可能随着人工智能的发展被植入代码中,并在未来几年继续做具有偏见性的决策。

    《麻省理工科技评论》也指出:“我们不能将人工智能视为天生公正。在有偏见的数据上学习,意味着算法也会有偏见。如果不公平的人工智能招聘程序被运用前没能被发现,那么,它们将使长期存在于商业中的多样性问题永久化,而不是解决它们。”

    ▲资料图片 图据《商业内幕网》

    招聘流程自动化仍是趋势

    一直以来,雇主们都梦想着利用科技扩大招聘网络,减少招聘过程中对招聘人员主观意见的依赖。

    根据人才软件公司凯业必达公司2017年的一项调查显示,55%的美国人力资源经理表示,未来几年内,他们将依靠人工智能进行员工招聘。亚马逊也并非唯一在雇佣员工时使用ai的大型企业,希尔顿集团和高盛集团等越来越多的公司也在寻求将部分招聘流程自动化。

    对于这些正在追求实现招聘自动化的企业,亚马逊的失败案例无疑提供了一个教训。但这并不意味着企业将就此放弃使用ai系统招聘人才的念头。

    初创企业hirevue首席执行官凯文·帕克表示,自动化正在帮助企业超越长期依赖的招聘网络,希尔顿集团和联合利华都是他的客户。他的公司研发的ai系统,会分析候选人在视频面试中的讲话和面部表情,以减少对简历的依赖。

    高盛集团则表示,自己已创建了一套简历分析工具,试图将求职者与最适合他们的部门匹配起来。

    而全球最大的专业社交网站领英(linkedin)则已经走得更远。它根据求职者在其网站上发布的职位是否合适,向雇主提供基于算法的候选人排名名单。不过,领英人才解决方案副总裁约翰·杰辛表示,这项服务并不能取代传统的招聘方式,“我当然不会相信如今的任何ai系统,会自行做出招聘决定。”

    在雇主们追求招聘流程自动化的同时,一些活动人士则提出了对ai招聘透明度问题的担忧。目前,美国一个联盟正在发起一项法律挑战,对那些测试招聘网站歧视算法的研究人员和记者提起刑事诉讼。

    “我们越来越关注算法公平性这一问题。”律师雷切尔·古德曼表示。但尽管如此,古德曼和其他持批评态度的人也承认,要就ai招聘系统对雇主提起诉讼可能极其困难,毕竟求职者可能永远不会知道雇主在使用人工智能技术进行招聘。

    至于亚马逊公司,则正在设法从失败的人工智能试验项目中吸取一些经验教训。知情人士表示,如今亚马逊使用了“经过大量阉割版本”的招聘系统,来帮助处理一些基本的事务,包括从数据库剔除重复的简历文件等。

    另一名员工则表示,爱丁堡已经成立了一个新团队,准备对自动招聘进行第二次尝试,而这次的重点是多样化。

    ▲这一算法的偏见,无疑反应了科技行业的本质 图据bbc

    红星新闻记者丨徐缓 编译报道

      © Copyright 2018-2019 haotoday.com 阿蓬信息门户网 Inc. All Rights Reserved.