“亡灵机器人”引发伦理争议
2022/06/25 | via.媒体  西班牙《阿贝赛报》网站/ 2022.05.24 | 收藏本文
今天,虚拟助手威胁着家庭的隐私;新闻推送系统塑造着我们理解世界的方式;风险预测算法告诉社会工作者应该去保护哪些儿童以使他们免受虐待;而基于数据处理的招聘工具对我们获得工作的机会进行分类。然而,机器学习的伦理仍然是一个模糊的领域。
为在比利时鲁汶大学学习信息与通信技术及伦理的年轻工程师们寻找有关该主题的文章时,乔舒亚·巴尔博的事例令我印象特别深刻。巴尔博是一名33岁的男子,他使用一个名为“12月项目”的网站创造了一个对话机器人(聊天机器人),该机器人可以模拟巴尔博已故未婚妻杰茜卡生前进行文字聊天的方式。杰茜卡死于一种罕见的疾病。
这种聊天机器人被称为“亡灵机器人”,使得巴尔博可以与人工智能版的“杰茜卡”进行文本信息聊天。尽管该事例在伦理上存在争议,但我们很少能找到这种超出单纯事实层面意义的资料,而人们纷纷从明确的规则角度对其进行了分析:开发“亡灵机器人”是对还是错?在伦理上是可取的,还是应受谴责的?
在我们解答这些问题之前,先来了解一下事情的背景。“12月项目”是由视频游戏开发者贾森·罗勒创建的,其目标是帮助人们设计具有他们想要与之进行交互的性格特点的聊天机器人,并需要支付一定费用。该项目基于美国开放人工智能研究中心(OpenAI)的GPT-3应用程序编程接口(API)。这是一种能够自动生成文本信息的语言模型。
巴尔博的事例引发了罗勒和OpenAI之间的争端,因为OpenAI的应用规则明确禁止将GPT-3用于性、爱、自残或骚扰等目的。罗勒称,OpenAI的立场是“超道德”的,并认为像巴尔博这样的人是“有能力作出判断的成年人”。不过,罗勒最终还是下线了基于GPT-3的“12月项目”网站。
尽管我们对开发机器学习“亡灵机器人”是对还是错会有一定的看法,但解读其影响并非易事。因此有必要逐步解决该事例提出的伦理问题。
鉴于杰茜卡生前是一个真实的人,巴尔博创建一个模仿她的机器人的想法似乎是不够全面的。即使人们死去了,也不应该成为他人可以随意摆弄的对象。因此我们的社会认为,亵渎或不尊重死者是不对的。换句话说,我们对死者有一定的道德义务,因为人们死亡并不意味着就失去了在道德伦理上的存在意义。