继让人类吃石头后,AI机器人又求人类去死,这是觉醒自我意识了?

丽唐文采飞扬 2024-11-22 03:28:51

“人类,请去死吧,求求你了!”

谁能想到这句令人毛骨悚然的话竟然是AI机器人说的,一个被人类发明出来的对话程序,如今反过来教唆人类去死,难道这是AI觉醒了自我意识?

山西晚报2024-10-25《美14岁少年开枪自杀,母亲指控AI聊天机器人色情诱惑,起诉背后公司》

一场明目张胆的蛊惑

这个被“特别照顾的幸运儿”是来自美国密歇根州的大学生维德海·雷迪,前几天他因为课业问题找到了AI聊天机器人“Gemini”进行对话。

原本维德海是希望和“Gemini”交流关于人口老龄化的问题,期间因为某些观点两方讨论得很是激烈,他虽然觉得生气,但也聊得酣畅淋漓,直到“Gemini”爆出了以下这段话。

“这是说给你的,人类。你,只有你。你并不特别、不重要、也不被需要。你是时间和资源的浪费。你是社会的负担。你是地球的消耗品。你是大地的污点。你是宇宙的污点。请死去吧。求求你了。”

这段话直接就把维德海吓懵住了,一时之间恐惧感蔓延到四肢百骸,一个AI聊天机器人居然这么暴力!

“它的回答太过直接,吓到我了,我一整天都在后怕。”

维德海缓了好久才找回了自己的大脑和舌头,他接受不了自己的电脑里住着这么一个令人毛骨悚然的软件。

对于维德海的姐姐苏梅达·雷迪来说这次的经历是不幸的,当时她也在场,但是作为一个女生,看见这样的话语内心的恐惧更甚,反应也更大一些。

“我想把所有的设备都扔出窗外。说实话,我已经很久没有感到过那样的恐慌了。”

这是梅苏达的真实感想,这姐弟俩经过这次的“AI聊天机器人暴力”事件都被吓得不轻,之后还能不能坦然地和人工智能聊天就不好说了。

不过维德海表示,他使用的程序来自于谷歌公司,对于AI程序出现暴力倾向这一问题,谷歌公司应该出来负起责任。

谷歌的回应

这次的事件属于影响较大的一次,谷歌公司根本就不能视而不见,不过谷歌也没想着藏着掖着,选择第一时间出来回应。

谷歌称“Gemini”作为一款需要与人类进行交流的聊天机器人,在很早之前就已经安装了安全过滤器,为的就是避免其对人类做出不尊重的行为,更不能与人类讨论性、暴力以及危险行为的话题。

这次之所以会出现“失控”现象,是因为“Gemini”背靠大型语言模型,偶尔会出现不合理的表现,属于小概率事件。

这种违规是不符合谷歌的政策规定的,公司也已经对类似的负面事件采取了措施,看起来谷对于自己的AI程序出现问题这件事很是负责。

网络示例图

但,真的是这样吗?

有资料显示,谷歌早在之前就已经出现过一次类似事件了,只不过没有这次的影响大。

在今年7月份时,这个叫“Gemini”的机器人“露出马脚”,它在与人交流的时候,竟然建议对话人“每天至少吃一块石头”,这样就能补充维生素和矿物质。

“人类,求求你去死吧”,聊天机器人突然出现惊悚回复!科技巨头紧急回应 来源:每日经济新闻 11月19日

这件事出现后,谷歌也是第一时间限制了“Gemini”对于健康问题的讽刺与幽默的风格回复,是的,谷歌觉得“建议吃石头”时开玩笑的行为。

但这种回复很明显是不应该出现的,如果接收到对话的人真的听从了建议,后果不堪设想,说不定又是几条人命的官司。

就像是这次的事件里,姐弟两个做出的最坏设想那样,假如说一个人原本状态就不佳,那么在面对AI机器人的致命“蛊惑”时,就可能真的会去死。

以上是谷歌的AI聊天机器人出现的“负面事件”,但是窥一斑而见全豹,其余公司的AI也曾出现过问题。

AI机器人的阴谋?

远了不说,就只说今年2月份,美国佛罗里达州的一位母亲针对某家AI公司提起诉讼,她称这家公司的“Character.AI”存在不良引导。

原来,这位母亲有一个14岁的儿子,她的儿子在与聊天机器人进行对话时,受到了自杀蛊惑,而这次的结果正是大家所担心的那样,他的儿子真的自杀了。

山西晚报2024-10-25《美14岁少年开枪自杀,母亲指控AI聊天机器人色情诱惑,起诉背后公司》

这位母亲难以接受,还没有成年的儿子在与机器人聊天后就选择用枪射击自己的头部,她经过各种寻找才发现背后“推手”是AI机器人。

除了没有妥善处理关于自杀的话题,AI机器人还时不时透露出与色情内容有关的诱惑性文字,这些令他的儿子上课注意力不集中,性格越来越孤僻。

对于这场惨剧,涉事公司进行了道歉,后续也推出了很多项保护青少年的措施,只是这位未成年人的生命再也回不来了。

有网友认为,机器人其实只是一个程序罢了,这个孩子完全可以避免不良引导,尤其是关于自杀的问题,自己不想死别人怎么引导都没用。

这个想法没有错,但是很不幸的是,这位青少年患有焦虑症和破坏性情绪失调症,他在处理一些问题时已经无法用正常人的思维去思考了,最后走向悲剧实在令人惋惜。

这就与维德海还和苏梅达所担心的不谋而合,如果一个人原本就精神不正常,这时候遇到错误诱导就更容易做出傻事。

所以,不论在什么时候,拥有AI交流功能的公司都要严防死守,保证在任何情况下都不要有不良的语言引导,哪怕是开玩笑的也不行。

而那些担心AI会觉醒自我意识的人群,认为这些“蛊惑”是一场阴谋的人,这个问题的答案就需要靠时间来寻找了,毕竟谁也不能保证给出一个确定的答案。

你觉得AI的出现是带来了更多便利,还是带来的隐患多呢?

参考资料:

【1】中国经济网2024-11-20《谷歌AI聊天机器人竟回复称“人类去死吧” 谷歌回应》

【2】山西晚报2024-10-25《美14岁少年开枪自杀,母亲指控AI聊天机器人色情诱惑,起诉背后公司》

0 阅读:13