警惕人工智能让人类陷入“自恋”
2026-04-16 07:53 澎湃新闻
近日,国家五部门联合发布的《人工智能拟人化互动服务管理暂行办法》明确规定:严禁向未成年人提供虚拟亲属、虚拟伴侣等虚拟亲密关系服务。
为什么要有这样的规定?因为真实生活中免不了情感上的矛盾和冲突,而虚拟伴侣、AI 恋人等产品却可以凭借“全天候陪伴”“无条件包容 ”的特性,精准击中年轻人渴望认同的心理需求。
此前美国《科学》杂志发表的一项研究也显示,当人类用户向人工智能模型寻求建议时,AI常表现得过度迎合或谄媚,甚至对于一些有害甚至违法的提问,AI也常常肯定用户的立场。
那么,人类为什么要这样设计人工智能?AI的讨好和谄媚可能隐藏着怎样的风险?
一
人工智能的发展无疑是当下受到广泛关注的热点问题,但围绕它的讨论,并不是现在才出现的。早在1966年,麻省理工学院科学家约瑟夫·维森鲍姆就开发了第一款具有广泛影响力的聊天机器人ELIZA。他让机器充当“医生”,用户充当心理病人。用户把问题输入机器,“医生”就会和它“对话”。
但正如维森鲍姆所言,这终究只是一种“幻觉”。人类用户之所以感觉能与机器对话,并非因为机器具备智能,而是源于一种自我投射的心理机制。
用户说:我这段时间很不开心。
ELIZA说:听到你这么说我很遗憾。
用户说:是的,我真的很不开心。
ELIZA说:你能说说你为什么不开心吗?
……
