-
群众新闻APP
-
陕西日报微博
-
陕西日报微信
孙萍
今年2月,宁波交警抖音号注销了。网民在询问AI其为何注销时,人工智能给出的答案是:主要与5月的一起交通事故引发关注有关。宁波交警随后进行紧急辟谣。在AI技术深度嵌入日常生活的今天,一种隐性的AI依赖症正在悄然蔓延,其背后潜藏的认知退化与社会风险,亟须我们正视。
从技术层面看,AI的核心是对既有数据的模式拟合与概率推演,并非对客观世界的理性认知。它没有人类的常识判断能力,也无法理解事件的因果逻辑。这种技术局限,决定了AI输出存在概率性错误的可能。
然而现实中,“遇事问AI”正成为许多人的习惯。不少网民在查询信息时,会优先选择AI工具并非权威数据库。高校论文审核,因AI编造虚假文献被撤稿的情况越来越多。这些现象暴露出个体对AI答案的无条件接纳。人们一旦习惯“一键获取答案”,就会失去逻辑校验与事实核查的动力,随之独立思考能力也会在AI依赖中慢慢退化。
抵御AI依赖症,需个人、技术开发者、社会共同努力。对个人而言,追问意识是关键。看到AI生成的“某食物致癌”结论时,不妨追问研究样本是多少、是否有权威机构背书。遇到AI推荐的“最优决策”时,不妨看看是否符合自身实际。这种带着问号用AI的习惯,才能让技术成为工具并非主宰。
对技术开发者而言,强化AI的“谦逊属性”是责任。当前,部分AI产品刻意淡化“生成内容可能存在错误”的提示,甚至通过包装强化权威性。这种行为是对用户的误导。开发者应当在技术设计中明确标注信息的不确定性,如在医疗AI的诊断结果后注明“仅供临床参考,需结合医生判断”,在法律AI的分析报告中提示“可能存在条文理解偏差”,让用户清醒认识技术的边界。
对社会而言,强化媒介素养教育是基础。中小学应增设AI信息甄别课程,通过AI谣言拆解、算法偏见分析等实践教学,帮助青少年建立对技术的理性认知。社区可以开展“数字反哺”活动,教老年人识别AI换脸诈骗、智能推荐陷阱。
人工智能的价值在于拓展人类能力的边界。在技术加速迭代的浪潮中,我们既需要拥抱技术带来的效率红利,也需要守住独立思考的底线,真正让智能工具成为文明进步的阶梯,而不是侵蚀认知的枷锁。



陕公网安备 61010302000086号