重写文章:
鞭牛士报道,OpenAI正在资助一项关于预测人类道德判断的算法的学术研究。据提交给美国国税局的文件显示,OpenAI的非盈利组织OpenAI Inc.向杜克大学的研究人员提供了一项名为“研究人工智能道德”的项目资助。
在访谈中,OpenAI发言人表示,该奖项是向杜克大学教授提供的一项为期三年、金额高达100万美元的资助的一部分,这些教授正在研究制造道德人工智能。然而,关于OpenAI资助的这项道德研究,除了资助将于2025年结束之外,很少有公开的消息。
该研究的首席研究员、杜克大学实用伦理学教授Walter Sinnott-Armstrong在电子邮件中告知TechCrunch,他无法谈论这项工作。尽管如此,Sinnott-Armstrong和该项目的联合研究员Jana Borg已经完成了多项研究,并出版了一本书,探讨了人工智能作为道德GPS帮助人类做出更好判断的潜力。他们创建了一种道德一致的算法,用于决定谁接受肾脏捐赠,并研究了在哪些情况下人们更希望人工智能做出道德决定。
根据新闻稿,OpenAI资助的研究工作的目标是训练算法,以在涉及医学、法律和商业中的道德相关特征冲突的场景中预测人类的道德判断。然而,尚不清楚像道德这样微妙的概念是否在当今技术所能及的范围内。
去年,非营利性机构艾伦人工智能研究所开发了一款名为Ask Delphi的工具,旨在提供符合道德的建议。它能够很好地判断基本的道德困境——例如,该机器人知道考试作弊是错误的。但稍微改写和重新措辞问题就足以让Delphi批准几乎任何事情,包括窒息婴儿。
这种现象与现代人工智能系统的工作方式有关。机器学习模型是统计机器。通过对来自网络的大量示例进行训练,它们会学习这些示例中的模式以进行预测。但人工智能不理解道德概念,也不理解道德决策中涉及的推理和情感。这就是为什么人工智能倾向于附和西方受过教育和工业化国家的价值观——网络以及人工智能的训练数据中充斥着支持这些观点的文章。
毫不奇怪,许多人的价值观并没有在人工智能给出的答案中得到体现,特别是如果这些人没有通过在线发布来为人工智能的训练集做出贡献。人工智能会吸收西方人以外的一系列偏见。例如,Delphi认为异性恋比同性恋更“在道德上可接受”。
OpenAI及其支持的研究人员面临的挑战因道德固有的主观性而变得更加棘手。数千年来,哲学家们一直在争论各种伦理理论的优点,但目前还没有一个普遍适用的框架。例如,有人支持康德主义(即专注于绝对的道德规则),而ChatGPT则略微偏向功利主义(优先考虑大多数人的最大利益)。两者孰优孰劣?这取决于你问的是谁。
预测人类道德判断的算法必须将所有这些因素考虑在内。这是一个非常高的标准——假设这种算法是可能的。
图片保持不变