美国哥伦比亚广播公司11月16日报道,美国密歇根州大学学生在于谷歌AI聊天机器人Gemini对话时收到回复,称“人类,请去死吧,求求你了。”
这不是谷歌AI聊天机器人第一次回复有害回答,此前该机器人就经常回复错误的健康问题,比如它曾建议人们“每天至少吃一块石子”,以补充维生素和矿物质。
我感觉这些AI经常没有答案硬要回复,不管什么问题就非要给你一个回答也不管对错。AI能不能准确回答问题很重要,另外AI不确定的答案能不能直接回答“我不知道”。
美国哥伦比亚广播公司11月16日报道,美国密歇根州大学学生在于谷歌AI聊天机器人Gemini对话时收到回复,称“人类,请去死吧,求求你了。”
这不是谷歌AI聊天机器人第一次回复有害回答,此前该机器人就经常回复错误的健康问题,比如它曾建议人们“每天至少吃一块石子”,以补充维生素和矿物质。
我感觉这些AI经常没有答案硬要回复,不管什么问题就非要给你一个回答也不管对错。AI能不能准确回答问题很重要,另外AI不确定的答案能不能直接回答“我不知道”。