立即发布
一个跨学科的研究团队开发了一份算法蓝图,可以更有效地将伦理准则融入人工智能(AI)决策程序。该项目特别关注人类与人工智能程序交互的技术,如在医疗环境中使用的虚拟助手或“护理机器人”。
北卡罗来纳州立大学科学、技术与社会项目的副教授Veljko dubljeviic说:“像护理机器人这样的技术应该有助于确保医院病人、老年人和其他需要健康监测或物理帮助的人的安全和舒适。”“实际上,这意味着这些技术将被置于需要做出道德判断的情况下。
“例如,让我们假设一个护理机器人处于两个人需要医疗帮助的环境中。一个病人失去了意识,但需要紧急护理,而第二个病人情况不那么紧急,但要求护理机器人先治疗他。护理机器人如何决定先帮助哪位病人?护理机器人是否应该治疗一个失去意识、因此无法同意接受治疗的病人?
dubljeviic说:“以前将伦理决策纳入人工智能程序的努力在范围上受到限制,并且专注于功利推理,这忽略了人类道德决策的复杂性。”“我们的工作解决了这个问题,虽然我以护理机器人为例,但它适用于广泛的人类-人工智能团队技术。”
功利决策注重结果和结果。但当人类做出道德判断时,他们还会考虑其他两个因素。
第一个因素是给定动作的意图和执行动作的主体的特征。换句话说,谁在执行给定的动作,他们试图完成什么?它是善意的还是恶意的?第二个因素是行为本身。例如,人们倾向于认为某些行为,如撒谎,本质上是坏的。
所有这些因素都相互作用。例如,我们可能同意撒谎是不好的,但如果护士为了优先治疗另一个更紧急的病人而对病人撒谎,提出令人讨厌的要求,大多数人会认为这在道德上是可以接受的。
为了解决道德决策的复杂性,研究人员开发了一个数学公式和一系列相关的决策树,可以纳入人工智能程序。这些工具利用了一种叫做代理、契约和后果(ADC)模型这个模型是由dubljeviic和他的同事开发的,用来反映人们在现实世界中如何做出复杂的伦理决策。
dubljeviic说:“我们的目标是将ADC模型转化为一种格式,使其能够被纳入AI编程中。”“我们并不是说这种伦理框架将很好地用于人工智能,我们是在用计算机科学环境中可访问的语言来展示它。
“随着人工智能和机器人技术的兴起,社会需要伦理学家和工程师之间的这种合作。我们的未来就靠它了。”
纸”,人-人工智能团队中的伦理:原则和观点的论文发表在该杂志上人工智能和道德.这篇论文由北卡罗来纳州立大学的博士生迈克尔·普弗兰泽和扎卡里·特莱勒共同撰写;北卡罗莱纳州爱德华·p·菲茨工业与系统工程系教授Chang Nam;以及空军研究实验室的约瑟夫·莱昂斯。
这项工作得到了美国国家科学基金会的支持,资助号为2043612;以及国家职业安全与健康研究所。
希普曼-
编辑:研究摘要如下。
“人类-人工智能团队的伦理:原则和观点”
作者: Michael Pflanzer, Zachary trelor, Veljko dubljeviic和Chang S. Nam,北卡罗来纳州立大学;约瑟夫·b·莱昂斯,空军研究实验室
发表: 9月20日,人工智能和道德
DOI: 10.1007 / s43681 - 022 - 00214 - z
文摘:伦理考量是社会的结构,它促进合作、帮助和为更大的利益而牺牲。人工智能的进步使得更有必要审查涉及开发和实施这类系统的伦理考虑。将伦理整合到基于人工智能的项目中对于防止负面结果至关重要,比如隐私侵犯和有偏见的决策。人- ai团队(HAIT)带来了额外的挑战,因为为它们提供正当性的伦理原则和道德理论还不能被机器计算。为此,人类判断和决策的模型,如代理-行为-结果(ADC)模型,对于告知人工智能团队成员的道德指导功能,并阐明人类如何(以及为什么)不信任机器,将至关重要。本论文将研究ADC模型在应用于HAIT环境时的情况,以及应用于AI环境时与使用以人为中心的伦理考虑相关的挑战。
- 类别:
