人机共生时代,警惕AI依赖
3月 27日,人们在中关村国际创新中心咨询台参观仿生人形机器人
文/《环球》杂志记者 彭茜
编辑/乐艳娜
“交稿最后时限的前一夜,我彻夜未眠,除了和困意对抗,更多的能量消耗在与那根看不见的‘神笔’在云端上角力。只有猫咪是乖巧听话的,不再一屁股蹲坐在键盘上阻止我推着石头上山又再看它轰隆隆滚下来的徒劳。
AI变了,我甚至无法用准确的语言形容,到底是什么变了。它不再像初次亮相时那般惊艳,能够迅速给出出人意料却又情理之中的剧情走向。相反,它变得迟缓、呆傻,犯下各种低级错误……”
这是科幻作家陈楸帆今年发表在《科幻立方》上的小说《神笔》,讲述了一个灵感阻滞的科幻作家使用最新人工智能(AI)写作工具,却被越陷越深的故事。
现实世界中,AI正在为我们提供一种“认知捷径”,人们不用再费力思考,便能轻松得到想要的答案。一开始只是查询信息、翻译文字,慢慢开始辅助写邮件、工作总结、整篇论文,甚至进行重要决策……过度依赖AI,利用其进行“思维外包”,正让我们日渐丧失思维的主导权。
AI“思维外包”的隐忧
当前,大模型、智能体等AI应用已在多领域广泛赋能生产生活,促进工作提质增效。但AI带来的技术红利之下也暗藏隐忧。比如,有研究显示,过度依赖AI模型可能引发“AI脑雾”,削弱工作的动力。
根据美国麻省理工学院的一项新研究,长期使用AI会导致人的认知能力下降。这相当于每使用一次AI,就欠下一笔“认知债”,将用未来的思考能力支付“利息”。
研究者对54名参与者展开脑电图扫描,结果显示认知活动强度与外部工具使用呈负相关,没有使用工具的人展现出最强且分布最广的脑神经连接,而使用AI大语言模型的人其脑神经连接强度最弱。4个月内,使用AI大语言模型的人在神经、语言和行为层面持续表现不佳。脑部扫描揭示了使用AI的损害:大脑的神经连接从79个骤降至42个。
而微软和卡内基-梅隆大学的新研究也揭示了类似的现象,生成式AI会削弱批判性思维能力,导致过度依赖——对生成式AI的信心越高,知识工作者的批判性思维越少,长期依赖AI可能削弱人们独立解决问题的能力。
研究者由此认为,开发者在设计生成式AI工具时,应有支持用户提升批判性思维的意识(如提示需验证的场景)、动机(如关联技能发展)和能力(如提供验证工具)。特别是在设计法律文书、医疗建议等高风险任务时,应强制弹出验证提醒(如“请核对AI引用的法规条款”)等,在输出结果中明确标注潜在风险(如“此代码未经过运行测试”),打破用户对AI“全知全能”的认知偏差。
浙江大学管理学院吴苏青研究员团队今年在英国《科学报告》杂志发表一项涉及3500多名参与者的研究,显示当工作者从有AI辅助的人机协作任务转向无AI辅助的独立工作任务时,会出现显著的内在动机下降和无聊感增强的情况,这揭示了人机协作中未被充分重视的心理影响。具体来看,使用AI后,人们的内在动力平均下降11%,无聊感平均增加20%。缺乏内在动力会降低工作满意度,导致倦怠等负面后果。
“人机协作这一新型工作模式虽能显著提升工作效率与表现,但也可能削弱人的内在动机。这一好处和风险并存的效应提醒我们,在认可AI带来的帮助时,也要深入思考它在工作流程中的应用会怎样影响员工的心理和行为,进而影响到绩效、健康和成长等方面。”吴苏青在接受《环球》杂志记者采访时说。
人们为何“轻信”AI
人们之所以愈发依赖和轻信AI,源自近年来AI专业化能力和交互便捷性的飞跃。其生成内容的专业化程度,让不少人把AI奉为专家;而对话式的交互方式,让它好似一位学识渊博又无话不谈的好友,更易让人形成心理依赖和信任。
如今AI大模型“开箱即用”的便捷性,降低了使用门槛,使一些人在“无脑”使用AI时丧失了主动思考。由于缺乏基本的AI素养教育,使用者对AI本身的技术缺陷认知不足,容易“轻信”。一些使用者对由模型“幻觉”生成的看似真实实则胡编乱造的虚假信息难以鉴别,造成现实混乱。
英国高等法院今年6月曾要求律师采取紧急行动,防止AI被滥用,原因是已出现数份可能由AI生成的虚假案例引用被提交至法庭。而今年由美国卫生与公众服务部牵头、“让美国再次健康”委员会发布的儿童慢性病报告,也因使用了生成式AI的内容,导致出现重大引用错误。
“我们在使用AI的同时,把判断力也一起外包了,不再去验证AI给出的答案,不再去反思使用AI的过程。无条件接受AI给的任何信息,就会导致人的主观能动性的下降,深度的阅读思考和表达的能力也会随之退化。”陈楸帆在接受《环球》杂志记者采访时说。
科幻作家、中国作协科幻文学委员会副主任陈楸帆
陈楸帆在高校教授创意写作,他发现身边已有非常多的学生开始用大模型等AI工具来做作业、写论文,包括创意写作。而另一位在中国人民大学任教的教师向记者透露,她的学生甚至连给她的微信回复都交由AI完成,从格式和表述的一些细节,她很容易分辨出内容是由AI的模板生成的。
吴苏青认为,AI的应用还带来认知需求的“空心化”。已有研究表明,人类大脑对认知挑战的追求是内在动机的重要来源之一。当AI完成工作的“烧脑”部分,人类仅剩机械性执行,工作沦为“被动填空”,这就可能会导致心理疏离,使人丧失工作动力。AI生成内容被直接采用,还会导致员工感到自主性被侵蚀,进一步降低其主观能动性和参与感。
她说,企业、政府部门等部署AI时应“慢下脚步”,不宜“一步到位”全部替代人工,可先小范围试点、可控推进,边用边观察对员工积极性和创造力的影响。尤其要关注其长期心理影响,如兴趣减弱、无聊感增强等,这在一些关键岗位可能带来安全隐患。
随着大语言模型的应用,AI模拟人类互动的能力也大幅提升。据《自然》报道,一些专门的AI伴侣公司还运用行为研究中证实能增强科技成瘾的技术手段,以提升用户黏性。普林斯顿大学认知心理学研究者罗斯·金里奇说,借助大语言模型,陪伴型聊天机器人更拟人化了,人们特别容易把AI当成真实的“准人类知己”,对其生成的信息无限信任,与其沟通时“毫无保留”。
7月 14日,观众在河北省石家庄市美术馆参观AI艺术画展
建立思维的“AI缓冲带”
AI究竟是“良药”还是“毒药”,取决于人们使用它们的方式,正如再有效的药物过量使用也会有损健康。专家认为,AI一定会更加深度嵌入人们的工作与生活,在这个人机共生的新时代,与AI共处需要更加智慧。
美国AI教育公司Section 4首席执行官格雷格·肖夫对此有个形象的比喻——未来10年内,使用AI的知识型劳动者将分化为两类群体:“AI驾驭者”与“AI乘客”。
“AI乘客”欣然将自身的认知工作全权交由AI打理。他们会把提示词粘贴到ChatGPT等AI大模型中,复制生成的结果,然后作为自己的成果提交。短期内,他们或许会因工作效率提升而获得认可。但随着AI能力的迭代,这些人终将会被AI取代。
而“AI驾驭者”则坚持主导AI的运作。他们会把AI生成的内容当作初稿,对其成果进行严格核查。有时他们还会关闭AI,腾出时间独立思考。从长期来看,这两类群体之间的经济差距将急剧扩大,后者毫无疑问将会胜出。
“我们需要在不同的学习和工作场景里,学会分辨哪些场景适合用AI,哪些场景需要人来进行有力辅助,以及判断和辨别AI给出的结果。”陈楸帆持同样观点。在他看来,人们应对自己的心智、认知掌握主动权,有意识地建立起一个“AI缓冲带”,即面对新问题时先从自己的角度给出答案,再寻求AI去深化和扩充。
人们甚至还可进行“对抗性生成”,即当AI给出跟自己观点十分契合的答案时,用批判性思维去质疑,到底是我被AI所影响,还是AI在我的不断训练下变得越来越趋同?我们是否能跳出思维惯性来做出不一样的选择,给出AI没想到的答案?
身为经常需要进行“头脑风暴”的科幻作家,陈楸帆刻意为自己设置了一些需要“慢思维”的环节,用于区别需要依靠AI高效完成的一些任务。比如在构思小说时,慢下来去细细感受、思考、表达,在笔记本上涂涂画画,他感到比线性地敲击键盘更能激发灵感。
“这一过程最终也将包括如何建立起与‘人’的更有效链接,如何跟多样性的智能主体交流,然后互相激荡,取长补短。我们需要一种人与人、人与机器之间更复杂、更立体的协作来建立自我主体性和主观能动性,包括创造力、想象力的保卫机制。”他说。