返回首页 >

技能可以“炼化” 隐私权不能让渡

2026-04-28 14:31   新华每日电讯

  近日,从GitHub上爆火的“同事.skill”开源项目,到部分企业的应用,这些新奇的技术试验,在引发“赛博永生”猎奇讨论的同时,也在试探个人信息保护、隐私权保障等相关法律规定的底线,需要引起警惕和深思。(相关报道见新华每日电讯4月27日6版)

  随着新技术发展,“炼化同事”的难度并不算高:通过整合员工在办公平台的聊天记录、工作文档、邮件等素材,经AI深度学习,生成具备个人特征的数字模型,这种数字模型可在一定程度上模仿该员工开展一些简单工作。

  但事情并没有那么简单。人格尊严权是公民依法享有的最基本社会地位及受他人与社会尊重的基础性权利,其中隐私权是重要的构成部分。这些被提取的素材和数据,看似是工作场景中的常规留存,实则包含大量隐私信息——私人化的沟通语气、未公开的工作思路、隐藏在工作记录中的个人偏好与隐私诉求等。若企业未经严格授权,擅自使用离职员工的私人数据训练AI数字模型,无论名义是“内部测试”或者“降本增效”,本质上都会存在侵犯公民隐私权的风险。更需警惕的是,若此类情况越来越多,则可能出现变相强迫授权等情况,最终让“同意”沦为必然,突破更多法律法规底线。

  针对此话题的讨论中,有些人还担心供职公司未经自己同意,就偷偷提取工作记录和沟通内容,“数字人”已训练出来,自己还被蒙在鼓里。而类似的隐私泄露风险早已出现:使用AI产品后,个人行踪、生活习惯被精准掌握,出现未经授权却被获取隐私信息的情况。此类行为,不仅伤害个体权益,更加剧民众对AI技术的不信任,阻碍技术长远发展。

猜你喜欢

热点新闻

{$loop_num=0}