主要观点总结
本文探讨了过度依赖AI工具可能对批判性思维产生的负面影响。研究发现,过于信任生成式工具会减少对自己的批判性思维的使用,关键在于建立不能尽信AI的意识。文章介绍了避免认知退化的方法,如“3R原则”:强制复查、逆向训练和重构输出。
关键观点总结
关键观点1: AI工具的普及导致人们对其产生过度依赖。
研究指出,这种依赖减少了人们在使用AI工具时的批判性思维。
关键观点2: 研究聚焦生成式AI和知识工作者,参与者的研究结果表明任务类型和模型强大程度不是决定批判性思维的主要因素,而是人们对AI的信任程度。
人们过于信任AI工具,容易将其重要事务交给AI处理,不再过问。
关键观点3: 要避免认知退化,需要建立不能尽信AI的意识。
文章提出了“3R原则”:强制复查、逆向训练和重构输出,以帮助读者在日常生活中锻炼批判性思维。
正文
平心而论,用 AI 本来就是为了提高效率,减少花在「脏活儿」上的时间,这无可厚非。比如有一位程序员,会用 Claude 帮忙写代码;一位外汇交易员,用 ChatGPT 生成交易策略;还有一位老师,会用 Dall-E 生成学校洗手教程的图片。
这样一来,用户自己需要做的工作,就从曾经的「零帧起手」,转变成「监督学习」。AI 负责出东西,用户来挑毛病、提意见,一轮两轮 N 轮的修改,直到满意为止。
这些事务型的任务 AI 完成起来又快又好,也就容易让人「掉以轻心」。除非是真的出现了特别离谱的结果,不然很多人都会放心把事情交给 AI。
而正是这种对 AI 的信任、对自己所选中的「虚拟工作伙伴」的认可,会让用户不愿意反思和复盘自己在工具上的使用——也很好理解,谁会轻易质疑自己的经验呢?
于是研究人员提出了这样一个问题:
在与 AI 合作完成任务的过程中,你会调用自己的批判性思维吗
?
这里所谓的「批判性」来源于英文的「critical thinking」,是对可用事实、证据、观察和论据进行分析的过程。
在这个研究里,「批判性」在这里,并非单纯地指给成品挑毛病,而是有更确切的定义:
1. 能够审视自己的需求和意图,从而确定需要 AI 参与的地方
2. 能在心中设定明确的目标
3. 通过主观标准验证信息、验收质量
这三点对应了三种批判性思维里的核心构件:
意识、动机和能力
。当没有意识、没有动机、还缺乏能力的时候,依赖 AI 无异于让自己的认知思维进一步退化。
而这次研究最重要的发现,是那个影响调用批判性思维的决定因素:
不是任务类型,也不是模型的强大程度,而是人对 AI 有多「信」
。