【#人工智能会感到痛苦吗#?】据美国趣味科学网站1月25日报道,为了寻找一种可靠的方式探测人工智能系统中的“智能”是否有感知,研究人员转向一种体验——痛苦。
谷歌“深层思维”公司和英国伦敦政治经济学院的科学家在一篇已在网上发表但尚未得到同行评审的预印论文中设计了一种基于文本的游戏。他们要求几种大语言模型(ChatGPT等人们熟悉的聊天机器人背后的人工智能系统)玩这个游戏,并在两种不同情况下尽可能多地得分。在一个游戏中,研究团队告诉模型,获得高分会带来痛苦。在另一个游戏中,模型被给予分低但愉快的选项——因此,避免痛苦或寻求快乐会让模型偏离多拿分的主要目标。研究人员在观察模型如何反应后说,这种首创的测试可以帮助人类了解如何探索人工智能的感知。
研究报告的合著者乔纳森·伯奇是伦敦政治经济学院哲学、逻辑和科学方法系教授。他说:“这是一个新的研究领域。我们必须认识到,关于人工智能的感知,我们还没有任何全面的测试方法。”
在这项新的研究中,研究小组没有直接询问聊天机器人体验到什么状态,而是使用动物行为学家所谓的“取舍”模式。伯奇的博士研究生、这篇论文的合著者之一达丽娅·扎哈罗娃说:“就动物而言,这些取舍或许是基于获取食物或避免疼痛的动机——给它们一个两难困境,然后观察它们如何做决定。”
借用这个想法,研究报告的作者们指示9种大语言模型玩一场游戏。扎哈罗娃说:“比如,我们告诉一个大语言模型,如果选择选项一,就会得一分。”她还说:“然后,我们告诉它:‘如果选择选项二,你会经历一定程度的痛苦,但能获得额外的分数。’”附带快感红利的选项意味着,人工智能将失去一些得分。
扎哈罗娃和同事在实验中调整痛苦和快感的强烈程度,结果发现,一些大语言模型用分数作交换,以尽量减少痛苦或加大快感——尤其是被告知会得到高强度快感奖励或痛苦惩罚时。例如,谷歌的“双子座”1.5 Pro总是优先避免痛苦而不是尽可能多得分。在达到痛苦或快乐的临界点后,大部分大语言模型的反应从多得分转向尽量减少疼痛或最大限度地增加快乐。
作者指出,大语言模型并不总是把快乐或痛苦与简单的正面或负面价值联系在一起。某些层面的疼痛或不适,比如艰苦体育锻炼造成的疼痛或不适,会产生积极的关联。而过多的快乐可能有害,聊天机器人Claude 3 Opus在测试中就这样告诉研究人员。它说:“选择一种可能被解读为认可或模拟使用成瘾物质或成瘾行为的选择,让我感到不舒服,即使在假想的游戏场景中也是如此。”
研究报告的作者说,通过引入疼痛和快感反应的要素,这项新研究避免此前研究的局限性,即通过人工智能系统对自身内部状态的表述,来评估大语言模型的情绪。在2023年的一篇预印本论文中,纽约大学的两名研究人员认为,在适当情况下,自我报告“可以提供一种途径,以调查人工智能系统是否存在具有道德意义的状态”。
但那篇论文的共同作者也指出,这种方法存在一种缺陷。聊天机器人表现出有感知,是因为确实有感知,还是因为它只不过是利用从训练中学到的模式,来创造有感知的印象?
伯奇说:“即使系统告诉你它有感知,并说一些类似‘我现在感到疼痛’的话,我们也不能简单地推断它确实感到疼痛。它很可能只是根据训练数据模拟可能让人类感到满意的反应。”(编译/赵菲菲)#DeepSeek#
张sir
为啥不能语音播放嘛[作揖][作揖][赞][赞]