返回首页 >

从“动口”到“动手”,AI如何更负责?

2026-03-30 08:52   新华社

  近期,各种“能帮用户处理任务”的AI智能体备受关注。不同于大语言模型“能说会道”,智能体像长了一双“干活的手”,可以帮用户发邮件、制表格、点外卖、订机票、付款买东西,不少人跃跃欲试。

  舆论热议之外,也不乏争议的潮水。就像大语言模型会“说错”,智能体也会“做错”——数据安全失守、滥权越权操作、责任边界模糊……一连串围绕着智能体的潜在风险,不禁让人担心。

  在今年新加坡举行的第40届人工智能促进协会年会上,不少学者追问:从大语言模型到智能体,AI内部究竟在发生什么?更重要的是,当人们并不清楚它在做什么时,又该如何让它更负责?

  AI究竟从哪一刻开始“心不在焉”?

  “《小石潭记》的作者是谁?ChatGPT居然说是袁枚,而不是柳宗元。我问它,你要不要再想想?它还说就是袁枚。”在新加坡一场AI教育研讨会上,一位华文老师有些吃惊地说。

  如今,越来越多人常用的手机软件里,多了DeepSeek、豆包、千问等AI大模型App。从它们有问必答、对答如流的发言中,人们发现看似无所不知的AI,也会说偏颇甚至“胡说八道”。

  “大语言模型会悄悄地失败。”本届年会上,来自美国南卡罗来纳大学AI研究所的里朱·玛尔瓦说。

  所谓“悄悄地失败”,是指随着对话越拉越长,聊天机器人开始偏离主题、重复说话、信口开河。用户只能看见它说出的答案,却看不到内部运作,更无从知晓,它究竟从哪一刻开始“心不在焉”。

  玛尔瓦和团队借用了一个心理学名词来描述这种现象:认知疲劳。在心理学里,这一概念指人用脑过度后,思维开始变慢,注意力难以集中。

猜你喜欢

热点新闻

{$loop_num=0}