用AI修复友情:是帮助还是阻碍?

新兴科技是个圈 2024-10-28 11:48:45

来源:MIT Technology Review

The Algorithm

这是《麻省理工科技评论》人工智能领域的专栏,带你一起揭开最新人工智能突破的神秘面纱。

本文发表于 10 月 22 日,原标题为:Would you trust AI to mediate an argument?

我最近心情很低落,一位非常亲密的朋友突然断绝了与我的联系。我并不清楚原因,试图修复关系的努力反而适得其反,这样的情形既伤人又令人迷惑。因此,不难理解为什么人们越来越多地寻求 AI 聊天机器人来帮助解决这些问题。好消息是:AI 或许确实能提供帮助。

来自 Google DeepMind 的研究人员最近训练了一套大型语言模型系统,以帮助人们就复杂但重要的社会或政治问题达成一致。这种 AI 模型的训练重点在于识别并展示人们观念中重合的部分。在这款 AI 调解员的帮助下,小组的研究参与者在不同议题上的立场变得不再那么对立了。关于这个项目的更多细节可以阅读 Rhiannon Williams 的报道。

AI 聊天机器人的一个最佳用途是用于头脑风暴。我在过去曾成功用它来草拟一些在尴尬场合中更为果断或具有说服力的邮件,比如投诉服务或协商账单。最新的研究表明,它们还能帮助我们从他人的角度看待问题。那么,为什么不试试用AI来修补我和朋友的关系呢?

我向 ChatGPT 描述了这场冲突,并询问应如何应对。AI 的回复给了我肯定,因为它支持了我处理问题的方式。它的建议基本上和我自己想的类似。我发现与机器人聊天并获取处理我特定情况的更多想法很有帮助。但最终,我还是有些不满,因为建议相对笼统且模糊,比如“冷静地设立你的界限”和“表达你的感受”,并未提供像心理咨询师那样深刻的见解。

另一个问题是:每场争论都有两个视角。我开启了一个新对话,用我认为朋友的视角重新描述了问题。和对我一样,聊天机器人对朋友的决定也表示支持和认可。一方面,这个过程确实帮助我理解了她的想法,毕竟我试图共情,而不仅仅是赢得争论。但另一方面,我也完全能想象这种情况——过于依赖一个聊天机器人,它会说出我们想听的建议,反而可能让我们固执己见,阻碍我们理解对方的角度。

这提醒了我:AI 聊天机器人并不是心理咨询师或朋友。尽管它能复述大量互联网文本,但它并不了解悲伤、困惑或喜悦的真实感受。因此,在用 AI 聊天机器人处理对自己来说非常重要的事情时,我会小心行事,不会轻易将它的建议当作现实中的指导。

AI 聊天机器人永远无法替代一场真正的对话——双方真心倾听并考量对方的观点。所以我决定放弃AI辅助的“治疗对话”,再一次主动联系我的朋友。祝我好运!

原文链接:

https://www.technologyreview.com/2024/10/22/1106041/would-you-trust-ai-to-mediate-an-argument/

0 阅读:0