从“动口”到“动手”,AI如何更负责?
2026-03-30 08:52 新华社
近期,各种“能帮用户处理任务”的AI智能体备受关注。不同于大语言模型“能说会道”,智能体像长了一双“干活的手”,可以帮用户发邮件、制表格、点外卖、订机票、付款买东西,不少人跃跃欲试。
舆论热议之外,也不乏争议的潮水。就像大语言模型会“说错”,智能体也会“做错”——数据安全失守、滥权越权操作、责任边界模糊……一连串围绕着智能体的潜在风险,不禁让人担心。
在今年新加坡举行的第40届人工智能促进协会年会上,不少学者追问:从大语言模型到智能体,AI内部究竟在发生什么?更重要的是,当人们并不清楚它在做什么时,又该如何让它更负责?
AI究竟从哪一刻开始“心不在焉”?
“《小石潭记》的作者是谁?ChatGPT居然说是袁枚,而不是柳宗元。我问它,你要不要再想想?它还说就是袁枚。”在新加坡一场AI教育研讨会上,一位华文老师有些吃惊地说。
如今,越来越多人常用的手机软件里,多了DeepSeek、豆包、千问等AI大模型App。从它们有问必答、对答如流的发言中,人们发现看似无所不知的AI,也会说偏颇甚至“胡说八道”。
“大语言模型会悄悄地失败。”本届年会上,来自美国南卡罗来纳大学AI研究所的里朱·玛尔瓦说。
所谓“悄悄地失败”,是指随着对话越拉越长,聊天机器人开始偏离主题、重复说话、信口开河。用户只能看见它说出的答案,却看不到内部运作,更无从知晓,它究竟从哪一刻开始“心不在焉”。
玛尔瓦和团队借用了一个心理学名词来描述这种现象:认知疲劳。在心理学里,这一概念指人用脑过度后,思维开始变慢,注意力难以集中。

