手机版

锐评|乱编文献和法条?AI再智能也不能盲从

时间:2025-03-31 17:45:00

“AI竟然杜撰了《小石潭记》里没有的段落”“AI写的文献综述里,有一堆原文里找不到的内容”……近日,“防止DeepSeek乱编文献的方法”冲上热搜。不少网友列出自己“被坑”的亲身经历,称AI除了编造论文文献,还会编造法律条文,甚至教人做菜还跑偏了。“AI乱编”现象,让不少人感同身受,引发广泛关注和讨论。

防止DeepSeek乱编文献的方法冲上热搜,图据中国青年报微信公众号
网友反映AI模型瞎编文献。图据中国青年报微信公众号

写论文、搜文献、查法条、问疑难……人工智能“疯长”,万事问AI已成为日常。然而,AI并非万事通,也不是真理的源泉。一些回答看似正确有理、逻辑严密,实则充满谬误、漏洞不少。诸如“AI乱编”等“AI幻觉”,正带来技术的新困扰。乱编论文、法条等,给学术诚信和科研质量埋下风险;无中生有甚至图文造谣,污染网络空间也滋生信任危机。显然,“张口就来”“急中生智”,不该是AI生成回答该有的样子。

“AI乱编”之所以屡屡发生,一个重要原因在于,相当程度上,AI是被大量数据、资源等不断“投喂”,训练归纳推理的产物。一些AI模型给出的答案,只是靠着搜罗大量网页的既有数据内容,而自动整合生成。资料查阅“全”、分析整合生成“快”,是AI生成答案的优势,具体来源的可靠性、原创性和创新性如何,则有些囫囵吞枣、泥沙俱下。倘若原始资料就有问题,AI极有可能将错就错、错上加错。其实,不少人已经注意到,在知识细分、科研原创、心理情感等层面,AI仍存在很大局限,毋论代替人思考或做决策。

东拼西凑甚至无中生有的“AI乱编”,照出技术局限的现实,也呼唤人工智能技术因时因势持续升级。从技术层面而言,需要进一步给“投喂”与模型训练“打补丁”。例如,优化模型运行逻辑,扩展训练模型数据库的质量,提升大语言模型的分析推理能力,让AI生成内容尽可能更准确、更规范。同时,通过技术手段,给AI加上“防跑偏模式”——一旦AI大模型拿不准或者只是简单罗列整合,不妨对生成内容进行强制标注与提醒,以此减少“AI乱编”。更重要的是,每一位使用AI模型的人,应当认识到技术的“双刃剑”,少些功利和偷懒。

AI并不完美,这是技术发展演进的客观规律,也是人与AI共舞面临的必然课题。再先进的技术都有缺陷,人如何使用和对待AI才是关键。每一位请AI“回答我”的人,都应对AI生成内容“有所信有所不信”。尤其是涉及科研学术、政策法律、医疗等特殊行业领域,更要自觉自律,把AI的回答当作参考答案,交叉对比、谨慎求证,当好“终审”把关人。

大胆提问,小心求证;善用智能,绝不盲从。始终把主动权抓在自己手中,才不至于坠入“AI陷阱”而闹出笑话。

来源:北京晚报

记者:李松林