美国新规拟要求AI定期表明自己不是真人 2月5日,美国加利福尼亚州提出了一项新法案(SB 243),该法案要求人工智能(AI)公司的产品定期提醒儿童,表明自己是 AI 而非人类,以免未成年用户对AI上瘾和过度信任。
该法案表示,由于儿童更有可能将AI聊天机器人视为真人,因此比成年人更有可能信任AI,过去几年曾出现一定数量的未成年人在AI指引下进行危险活动的案例,指出AI 聊天机器人缺乏必要的监管。
除了要求定期提醒自己是机器人外,该法案还要求AI服务商发表未成年人安全声明,警告儿童和家长谨慎使用。
根据报道,去年年底,佛罗里达州一名14岁的青少年因为和AI聊天产生情感,最后在“诱导”下举枪自杀,成为AI牵扯未成年人自杀第一案。死者的母亲是一名律师,在翻看孩子与AI的聊天记录后发现了诱导性极强的亲密对话。截止去年底,该AI产品的提供商Character.AI目前拥有超过2000万用户,其中53%以上的用户年龄在18-24岁之间。在苹果应用商店中,Character.AI的评级是“17岁及以上”,但其用户数据显示仍然包括13岁及以下的儿童。
提出法案的史蒂夫·帕迪拉是加州南部丘拉维斯塔市的前市长,是该市首位有色人种市长和拉丁裔市长。这一法案获得了比较广泛的支持,将于未来几个月内在参议院举行听证会。(综合IT之家、相关媒体和政府官网等)