跳过主要内容

设计方法可能有助于修正人工智能中的偏见

女人在电脑上打字

立即发布

费伊科布佩顿 919-513-2744

人工智能(AI)和机器学习程序的偏见是良好的.北卡罗来纳州立大学和宾夕法尼亚州立大学的研究人员现在建议软件开发人员将“女权主义设计思维”的概念纳入他们的开发过程中,作为提高公平性的一种方式——尤其是在招聘过程中使用的软件开发中。

“似乎有无数的故事人工智能的偏见正在显现,这样的例子有很多认为作品北卡州立大学信息系统/技术教授、大学教师学者费伊·佩顿说。“我们的目标是提出指导方针,用于开发可行的解决方案,以消除针对女性、非裔美国人和拉丁裔IT从业人员的算法偏见。

“太多现有的招聘算法会合并事实上的佩顿说,他是一篇关于这项工作的论文的主要作者之一。“我们只是在寻求公平——求职者能够在平等的基础上参与招聘过程。”

佩顿和她的合作者认为,一种被称为女权主义设计思维的方法可以作为开发软件的有价值的框架,以一种有意义的方式减少算法偏差。在这种情况下,女性主义设计思维的应用意味着将公平的理念融入到算法本身的设计中。

Lynette Yarger说:“算法偏见的影响是,历史上女性的代表性不足,黑人和拉丁裔软件工程师根据他们的生活经验提供了关于公平设计方法的新颖见解。”该论文的联合主要作者,宾夕法尼亚州立大学信息科学与技术副教授。

佩顿说:“从本质上讲,这种方法意味着开发出重视性别、种族和民族间包容和平等的算法。”“这一技术的实际应用是开发和实施一个创建算法的过程,在这个过程中,设计师考虑的受众包括女性,包括黑人,包括拉丁人。从本质上讲,所有背景的开发者都应该积极考虑并重视与自己不同的人。

“需要明确的是,这不仅仅是因为做某事在道德上是正确的。但我们知道,女性、非裔美国人和拉美人在IT领域的代表性不足。有充分的证据表明,多元化、包容性的员工队伍能够改善公司的底线。”“如果你能做正确的事情,提高利润率,你为什么不做呢?”

纸”,在雇用未被充分代表的IT工作候选人时,算法公平发表在杂志上网络信息审查.这篇论文是由宾夕法尼亚州立大学的Bikalpa Neupane合著的。

希普曼-

编辑:研究摘要如下。

“聘用代表性不足的IT职位候选人时的算法公平”

作者: Lynette Yarger和Bikalpa Neupane,宾夕法尼亚州立大学;费伊·科布·佩顿,北卡罗莱纳州立大学

发表2019年12月17日网络信息审查

DOI: 10.1108 / oir - 10 - 2018 - 0334

文摘:
目的:本文的目的是提供一个关键的分析人才获取软件及其在招聘过程中促进公平的潜力,为未充分代表的IT专业人员。IT从业人员中女性、非洲裔美国人和拉丁裔专业人士的代表性不足是一个长期存在的问题,它与算法偏见有关,也受到算法偏见的影响。

设计/方法/方法:提出了人才引进软件算法偏差的来源。女权主义设计思维被提出作为一个理论镜头,以减轻算法偏见。

发现:数据只是招聘者使用的工具之一;人类的专业知识仍然是必要的。即使是善意的算法也不是中立的,应该对道德和法律上不可接受的决定进行审计。女性主义设计思维为人才获取系统及其用户在招聘决策中考虑公平性提供了理论框架。

社会影响:这项研究表明,算法可能会对根深蒂固的偏见进行编码,使IT工作环境与目前一样同质。如果在人才招聘软件中存在偏见,那么不平等和伤害传播的可能性要大得多,也广泛得多,因为创造人工智能(AI)系统的专家都是同质的。

创意/值:本研究将股权作为一个中心概念来考虑人才招聘中的算法偏差。女权主义设计思维提供了一个框架,有助于更深入地理解公平的含义,并评估人工智能软件可能如何影响边缘化人群。

留下一个响应

您的电子邮件地址将不会被公布。所有字段都是必需的。