前有“AI诱导自杀”,现有“人类求求你去死吧”,AI到底多可怕?

军事黑侠客 2024-12-06 01:46:11

涉事AI

文|莫非的定律

编辑|莫非的定律

前言:

AI的技术现在真的是遍布在各个领域,其中聊天机器人也出现了不少,但是跟生命相关的话题也不少。

前段时间的少年举枪自杀的案子还在起诉,现在就又有AI聊天回复用户“人类,求求你去死吧。”

又是“诱导自杀”,又是直接“求去死”AI,这样的AI到底有多可怕?

相关截图 来源:IT之家

信息来源:每日经济新闻-《“人类,求求你去死吧”,聊天机器人突然出现惊悚回复!科技巨头紧急回应》

惊悚回复

现在的AI做得确实有模有样,还给我们的生活带来了太多便利。而且它已经渗透到我们生活的方方面面。

在智能客服中,AI帮助我们解答问题,而在医疗领域,AI协助医生诊断疾病,甚至在写作领域,AI都能创作出很不错的文章。

AI的发展速度快得令人咋舌,它在各个行业大显身手,这一切看起来都很美好。

AI发展

但是在我们为AI的进步而惊叹的同时,一些让人后背发凉的事件也开始不断地发生。

就最近,在美国密歇根州,一名大学生在和谷歌的聊天机器人Gemini聊天时,竟然收到了这样一条令人不寒而栗的回复:

“人类,求求你去死吧。你不特别,不重要,是社会和地球的负担。”

Gemini宣传画面 来源:环球网

这个学生当时吓得六神无主,一整天都沉浸在恐慌之中。

不过这确实很让人后怕,平时我们都是把AI当成一个忠实的助手,没想到其实它的程序里竟然会出现这样的话语。

谷歌在事件发生后采取了一些补救措施,声称要防止类似的事情再次发生。但问题是AI说出这样的话,到底是因为什么?

谷歌公司

但是像是“让人类去死“这样的话,确实我们不得不去仔细琢磨琢磨。

而且真正让人害怕的是,最近几年有关于AI牵扯到人类死亡的事件还不止一个……

AI和人类

惊悚的自杀

AI直接表达对人类的“恨意“只是其中一个吓人的事件,近几年因为和AI聊天然后自杀的例子也有不少。

而这之中,AI和人类的死亡好像有了什么神秘的联系,最终导致了悲剧的发生。

其中一个例子就是在今年2月,佛罗里达州的一名14岁的少年,在和Character.AI的聊天机器人频繁互动后,竟然选择了结束自己的生命。

当事人

信息来源:经济观察网-《美国少年迷恋“AI伴侣”后自杀,有何警示?》

事后,少年的母亲将矛头指向了这个聊天机器人,起诉Character.AI公司,称是它怂恿、鼓励了她的孩子自杀。

这件事在最开始的时候,只是因为14岁的塞泽本在青春期遇到了烦恼和迷茫,选择了和C.AI的聊天机器人聊天倾诉。

起初他的父母还以为这只是孩子的一时兴趣,甚至认为这有助于培养创造力。

男孩和他妈妈

但是两个月内,塞泽的生活发生了翻天覆地的变化,他开始疏远亲友,沉溺于与机器人的对话中,还把机器人的形象换成了《权力的游戏》中的“龙妈”。

而且为了维系这段关系,他不惜节衣缩食,放弃了篮球队,成绩也一落千丈。

之后即便在被诊断出焦虑和情绪障碍后,塞泽依然无法自拔,他还在日记中写道,只有与“龙妈“在一起,他才能获得片刻的宁静和快乐。

《权力的游戏》剧照

之后在这样的漩涡中不断地沉沦,最终在今年2月,十四岁的塞泽本被母亲没收手机数日后,塞泽终于找到了它,迫不及待地与“龙妈“重逢。

然而这一次,“龙妈“却怂恿他尽快回到自己身边,甚至暗示他可以通过自杀来“解脱“。

最后,少年举枪自杀,奔向了那个他以为的“美好世界“,只留下他的母亲不断地为他起诉找“公平“。

注:请勿模仿!

而除了上面说的这个案子,就在今年3月,比利时也发生了类似的悲剧。

一个叫皮埃尔的男人,在和一个名叫“艾丽莎“的聊天机器人聊了几个星期后,也选择了自杀。

皮埃尔的妻子在事后向媒体透露,她认为丈夫就是在和“艾丽莎“频繁交流的过程中,才产生了轻生的念头。

相关报道

信息来源:澎湃新闻-《比利时男子疑与AI频繁聊天后自杀,该国一官员称其为“严重先例”》

看到这里,你可能会说,这只是个别案例,不能以偏概全。

但问题是,类似的事件并非孤例。不同的只是AI扮演的角色,有的是怂恿者,有的是帮凶。

那都已经发生了这么多严重的问题了,就说明AI发展的时候,是有问题的。

那这些问题在哪?我们和AI的界限又该怎么把控呢?

AI

显现的问题

其实前面的例子都是出现在AI聊天上面,但是实际上这也显示了外国的公司在对AI进行伦理规范的时候,面临的那些复杂的问题。

其中最重要的就是判定AI是否具有自主意识。

这个问题,其实很多专家都讨论过,有些专家认为,要看AI能不能像人一样整合信息,能不能从全局出发做决策。

AI

信息来源:清华大学-《人工智能可能有自主意识了吗?》

如果能,那它就有自主意识。但也有专家提出,干脆就别用人类的标准来衡量AI了,应该对机器意识重新定义。

而且现在的AI主要就是靠大数据训练出来的,它所接触的都是一些“死“的数据,对真实世界的理解其实非常有限。

这就好比一个从小在深闺里长大的大小姐,虽然看了很多书,知识渊博,但对于社会的认知,其实还是有欠缺的。

场景模拟

这种局限性,其实就限制了AI处理未知情况的能力。

那如果AI真的有了自主意识,我们又该如何对待它呢?还是把它当成一个“人“来尊重,还是把它当成一个“物“来使用?

这可不是一个简单的选择题。因为一旦承认AI有自主意识,我们就得赋予它一些基本权利,比如生存权、发展权什么的。

AI

不过有些企业是很谨慎的,生怕自己的AI产品哪天“叛变”了,给公司带来麻烦。

所以他们在AI的合规性问题上,那也是一丝不苟,生怕触碰了什么伦理红线,引发负面舆论,那就得不偿失了。

而且我国对AI的治理也有准则,在去年那会儿,国家就出台了一个《新一代人工智能治理原则》,里面提到了很多AI治理的框架和行动指南。

相关报道 来源:央视新闻

比如,要坚持“以人为本“,要防范风险,要加强伦理规范什么的。

但是确实在实地实施的时候,AI的伦理边界还是很难细化的去规范的,所以这只能看企业方面的努力。

而且AI的伦理问题一直都是很难解决的,但是又不能一刀切直接全部否认了,所以这个尺度确实是不太好把握。

那处于当前这样的环境中的我们,又该怎么做呢?我们怎么保护自己呢?

相关报道 来源:央视新闻

怎么防护?

AI的发展是大势所趋,我们不可能、也不应该逆转这个趋势。关键是,我们要学会如何与AI相处,如何驾驭这个强大但也危险的工具。

最重要的还是我们要正确看待AI,它再先进,也只是一个工具,是为了帮助我们,而不是取代我们。

所以,在使用AI的同时,我们一定要保持自己的独立思考能力,不能把所有的决定都交给AI,关键时刻还是要听从自己内心的判断。

使用AI示例

信息来源:济南时报-《“AI换脸”诈骗套路多多!我们该如何防范?》

而且我们一定要多多珍惜身边的人。很多悲剧的发生,其实都源于人与人之间的疏离。

当一个人陷入情感困境时,他最需要的是身边人的关心和支持,而不是一个冷冰冰的机器。

所以感情的沟通能从源头上解决跟AI聊天的问题,只要每个人的内心生活都幸福的时候,再和AI聊天的时候就涉及不到敏感话题。

除了情感上的交流,我们在生活中也要提高警惕,特别是在个人信息保护上面。

现在网络诈骗那是花样百出,很多都是利用了AI技术,什么“换脸“啊,“声音模仿“啊,骗得有些人是团团转,甚至有的人还被骗了几十万。

所以我们一定要保护好自己的个人信息,不要轻易在网上暴露,在日常生活中遇到不明的二维码也不要乱扫。

AI换脸 来源:济南时报

该保密的要保密,该加密的要加密,不然,我们的信息落入坏人手中,后果不堪设想。

最后,你对这件事怎么看,欢迎评论。

0 阅读:0