当前位置:首页 > 汽车 > 正文

“永不说再见”:人工智能能让死人起死回生吗?

  • 汽车
  • 2024-12-26 17:52:03
  • 2

在一个人工智能可以起死回生的世界里,悲伤呈现出新的维度。

从加拿大歌手德雷克(Drake)使用人工智能生成的图帕克·沙库尔(Tupac Shakur)的声音,到印度政客在去世多年后向人群发表讲话,技术正在模糊生与死之间的界限。

但是,除了在娱乐和政治领域具有不可思议的吸引力之外,人工智能“僵尸”可能很快就会成为失去亲人的人们的现实,通过一系列开创性的、但可能存在争议的举措。

那么,人工智能“复活”是如何运作的,它们是否像我们想象的那样反乌托邦?

什么是人类的人工智能“复活”?

在过去的几年里,世界各地的人工智能项目已经为已经去世的人创造了数字“复活”,让朋友和亲戚可以与他们交谈。

通常情况下,用户向人工智能工具提供有关死者的信息。这可能包括短信和电子邮件,或者只是回答一些基于个性的问题。

然后,人工智能工具处理这些数据,与用户交谈,就好像它是死者一样。这个领域最受欢迎的项目之一是Replika——一个可以模仿人们发短信风格的聊天机器人。

然而,其他公司现在也允许你在与死者交谈时看到死者的视频。

例如,洛杉矶的StoryFile使用人工智能让人们在自己的葬礼上说话。在去世前,人们可以录制一段视频,分享他们的生活故事和想法。在葬礼期间,参加者可以提问,人工智能技术将从预先录制的视频中选择相关回答。

今年6月,总部位于美国的Eternos公司也因创造人工智能驱动的数字来世而登上头条。今年早些时候启动的这个项目让83岁的迈克尔·波默留下了一个数字版本的自己,他的家人可以继续与他互动。

这些项目对人们有帮助吗?

2020年,当一位韩国母亲在虚拟现实中与她死去的女儿的人工智能复制品团聚时,一段关于这次情感相遇的视频在网上引发了一场激烈的辩论,即这种技术是帮助还是伤害了它的用户。

这类项目的开发者将矛头指向了用户的代理机构,并表示它解决了更深层次的痛苦。

Project December的创始人杰森·罗勒(Jason Rohrer)也使用人工智能来刺激与死者的对话,他说,大多数用户通常都在经历“不同寻常的创伤和悲伤”,他们将该工具视为一种帮助应对的方式。

“很多想以这种方式利用‘十二月计划’的人愿意尝试任何事情,因为他们的悲伤是如此难以克服,对他们来说是如此痛苦。”

该项目允许用户与已知公众人物的人工智能娱乐聊天,也可以与用户可能认识的个人聊天。

Rohrer说,选择使用这项服务与死者进行对话的人通常会发现,这有助于他们找到解脱。他补充说,这些机器人允许他们向意外死亡的亲人表达未说的话。

Eternos的创始人罗伯特·洛卡西奥(Robert LoCasio)说,他创办这家公司是为了捕捉人们的生活故事,让他们的亲人继续前进。

他的前同事Bommer于6月去世,他想为他的家人留下一份专门的数字遗产,LoCasio说。

“在波默去世前几天,我和他谈过,他说,记住,这是为了我。我不知道他们将来是否会使用它,但这对我来说很重要。”

这种技术的缺陷是什么?

一些专家和观察人士对人工智能的复活更为谨慎,他们质疑极度悲伤的人是否真的能做出明智的决定来使用它,并警告说它会对心理产生不利影响。

“作为一名临床医生,我最大的担忧是,哀悼实际上非常重要。安娜·弗洛伊德国家儿童和家庭中心的顾问亚历山德拉·莱玛说:“我们能够承认另一个人的失踪,这是发展的重要组成部分。”

莱马警告说,长时间使用大麻会让人们无法接受没有另一个人的现实,使他们处于一种“不稳定”的状态。

事实上,一项人工智能服务将与死者的永久联系作为一项关键功能进行了营销。

“欢迎来到YOV (You, Only Virtual),这家人工智能初创公司开创了先进的数字通信,让我们永远不必和我们爱的人说再见,”该公司的网站在最近更新之前写道。

Rohrer说他的悲伤机器人有一个“内置的”限制因素:用户为有限的对话支付10美元。

这笔费用可以购买超级计算机上的时间,每次响应的计算成本不同。这意味着10美元并不能保证一定数量的回复,但可以保证一到两个小时的对话。随着时间的流逝,用户会收到通知,并可以说最后的再见。

其他几个人工智能生成的会话服务也收取使用费用。

莱玛研究了悲伤机器人的心理影响,她说,虽然她担心它们在治疗环境之外被使用的前景,但它可以安全地作为训练有素的专业人士治疗的辅助手段。

世界各地的研究也在观察人工智能提供心理健康咨询的潜力,特别是通过个性化的对话工具。

这些工具不自然吗?

这些服务看起来像是直接从《黑镜》(Black Mirror)剧集中走出来的。

但这项技术的支持者认为,数字时代只是开创了保存生活故事的新方式,并有可能填补传统家庭讲故事方式受到侵蚀而留下的空白。

“在过去,如果父母知道自己快死了,他们会留下装满东西的盒子,他们可能想把这些东西传给孩子或一本书,”莱玛说。“所以,这可能是21世纪的版本,然后由父母在他们去世的预期中传递和创造。”

LoCasio at Eternos agrees.

他说:“人类有能力讲述自己的生活故事,并将这些故事传递给朋友和家人,这实际上是最自然的事情。”

人工智能复活服务安全且私密吗?

专家和研究人员都表示担心,这些服务可能无法保护数据的隐私。

与这些服务共享的个人信息或数据(如短信)可能会被第三方访问。

麻省理工学院斯隆管理学院(MIT Sloan School of Management)高级讲师芮妮•理查森•戈斯林(Renee Richardson Gosline)警告称,即使一家公司表示,它将在用户首次注册时对数据保密,但条款和条件的普遍修订,以及公司所有权可能发生的变化,意味着隐私无法得到保障。

Rohrer和LoCasio都坚持认为隐私是他们项目的核心。Rohrer只能在用户提交客户支持请求时查看对话,而LoCasio的Eternos则将访问数字遗产的权限限制在授权的亲属。

然而,两人都认为,这种担忧可能会在科技巨头或营利性公司身上体现出来。

一个很大的担忧是,企业可能会利用人工智能复活来定制他们向用户推销自己的方式。

用爱人的声音做广告,用他们的文字推销产品。

“当你对弱势群体这样做时,你所创造的是一种基于一个从未同意这样做的人的伪认可。所以这确实是一个关于代理和权力不对称的问题。”

对人工智能聊天机器人还有其他担忧吗?

Gosline表示,这些工具从根本上迎合的是一个处理悲伤的人的市场,这本身就有风险,尤其是当大型科技公司进入这个游戏时。

高斯林说:“科技公司的文化常常被描述为‘快速行动,打破常规’,我们应该对此感到担忧,因为首先被打破的通常是弱势群体的东西。”“我很难想象还有谁比那些悲伤的人更脆弱。”

专家们对让死者以数字方式复活的伦理提出了担忧,尤其是在未经死者同意、用户向人工智能提供数据的情况下。

人工智能工具和聊天机器人对环境的影响也日益受到关注,特别是涉及大型语言模型(llm)时,这些系统经过训练,可以理解和生成类似人类的文本,从而为聊天机器人等应用程序提供动力。

这些系统需要巨大的数据中心,这些数据中心排放大量的碳,使用大量的水来冷却,此外,由于频繁的硬件升级,还会产生电子垃圾。

谷歌7月初的一份报告显示,由于人工智能对其数据中心的需求,该公司远远落后于其雄心勃勃的净零目标。

Gosline表示,她理解没有完美的程序,许多人工智能聊天机器人的用户会做任何事情来与已故的亲人重新联系。但她说,领导者和科学家们应该对他们想要创造的世界更加深思熟虑。

她说,从根本上说,他们需要问自己一个问题:“我们需要这个吗?”

有话要说...