随着人工智能的发展,出现了能轻松创建逝去亲人数字复制品的 AI 工具,且创建时无需死者知晓或同意。这些基于死者数据训练的工具(有时称为悲伤机器人或 AI 幽灵),可能是文本、音频甚至视频形式,聊天能让一些哀悼者感觉与最爱之人持续互动很接近,但该技术仍有争议,可能会使哀悼过程更复杂,还可能侵犯死者隐私,其数据易被操纵或导致身份盗窃。
因为存在潜在危害以及对其概念的反感,并非所有人都想成为 AI 幽灵。最近在法庭上使用逼真视频模拟为谋杀受害者提供影响陈述后,《未来主义》总结了社交媒体的强烈反对,指出使用 AI“就像你想的那样令人不安”,且这不是人们第一次对这一增长趋势表示不适。去年 5 月,《华尔街日报》进行了一项读者调查,征求关于所谓 AI 复活伦理的意见,一位加州女性 Dorothy McGarrah 建议在遗嘱中应有阻止 AI 复活的方法。
对于遗嘱规划专家来说,随着更多 AI 幽灵出现,这个问题可能会开始出现,但目前专家表示,在遗嘱中写入“禁止 AI 复活”是一个复杂的过程,除非法律改变以强化尊重对通过 AI 模拟困扰最爱之人这一想法感到不适的人的意愿的文化,否则此类请求可能不会得到满足。
能否起草遗嘱阻止 AI 复活?
Ars 联系了几个律师协会,以了解遗嘱规划师是否在认真讨论 AI 幽灵。只有全国遗嘱规划师和理事会做出了回应,将 Ars 与遗嘱规划领域的专家 Katie Sheehan 联系起来,她是 Crestwood Advisors 的管理董事和财富策略师。Sheehan 表示,很少有遗嘱规划师准备回答关于 AI 幽灵的问题,不仅这个问题在她的日常工作中从未出现过,而且对于遗嘱规划师来说,由于 AI 相对较新,这基本上是一片未开垦的领域。她还表示尚未看到试图阻止 AI 复活的遗嘱,但可以制定路径使未经同意创建数字复制品更困难,比如在委托书和遗嘱中规定禁止受托人将死者的文本、语音、图像等用于任何 AI 工具。这也可能引发合同、财产和知识产权以及公开权等问题,且对于名人可能比普通人有更多保护,目前没有法律阻止未经授权的非商业性数字复制品,《修订统一遗嘱执行人访问数字资产法案》虽有帮助但并不完美。
请求“禁止 AI 复活”可能会被忽视
亲人是否会尊重阻止创建数字复制品的请求似乎存在争议,一位创建了悲伤机器人的人后悔未获得父亲同意。华盛顿大学博塞尔分校的计算机科学教授 Muhammad Aurangzeb Ahmad 十多年前在父亲去世后创建了一个悲伤机器人,他基于父亲的数据训练模型并防止未经授权的聊天,但后来意识到机器人存在偏差,且不确定父亲是否会认可。如今任何人都可使用 ChatGPT 模型创建类似机器人,在线上也出现了各种悲伤技术服务,Haneman 教授警告说目前没有法律或监管框架来规划保护避免数字复活的人,也很少有死者的隐私权,她认为对于个人用途,最好通过通过“删除权”来阻止数字复活,而不是通过遗嘱规划,“删除权”可帮助人们对抗亲人数据的不当使用。Haneman 的文章深入探讨了这一法律话题,指出现存法律可能保护死者亲人的隐私利益,但在某些情况下可能不够,文化态度的改变可能会影响法律,未来法律可能会改变以强化文化转变。
阻止 AI 复活的另一条途径
阻止自己成为 AI 幽灵目前似乎处于法律灰色地带,Haneman 呼吁一种不依赖遗嘱规划的解决方案,她主张通过删除用于创建 AI 幽灵的数据的权利来阻止数字复制品,Sheehan 表示删除权也可能涉及遗嘱规划,理想情况下应在 12 个月内提供删除期限,以平衡社会利益和死者权利。
未来几代人可能在 AI 幽灵陪伴下长大
如果专家所描绘的反乌托邦成真,科技公司可能会利用悲伤个体获取死者数据获利,如今与 AI 幽灵互动可能会对心理健康造成伤害,虽然 AI 幽灵可以是帮助管理悲伤的工具,但也可能使告别更困难,对于一些家庭来说,要小心让孩子接触悲伤机器人,同时 AI 幽灵也可能促使人们更早地与孩子谈论生死。如今 Ahmad 的孩子是在 AI 幽灵陪伴下长大的一代,他不断更新父亲的数字复制品,未来 AI 幽灵的发展方向可能是逼真视频或增强现实工具,虽然无法预测未来几代人对悲伤技术的看法,但孩子可能更容易接受或构建新功能。
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。