DeepSeek的胡编滥造,正在杀死中文互联网(组图)
2025年DeepSeek的爆火,无异于一场全民AI普及运动。从学术研究到职场文案,从短视频脚本到理财指南,这款国产AI大模型迅速席卷网络,它的开源属性、低廉成本、对标GPT-o1的推理能力,使它成为无数人工作和生活“智能助手”的首选。
但在这股热潮背后,一个令人不安的事实也随之浮出水面:DeepSeek-R1的幻觉率,竟高达14.3%。这也意味着,随着DeepSeek越来越广泛地应用,它对互联网原本就脆弱的“信息真实性”基础,正在进一步侵蚀,对我们的中文互联网世界来说,这无疑是一场灾难。
01 AIGC的顽疾:幻觉
1、推理大模型的幻觉更严重了
实事求是地说,幻觉问题是生成式AI从“娘胎”里自带的“先天性”缺陷,指的是大模型在输出内容时凭空捏造事实或偏离现实的现象。这个问题如果放到普通对话模型里,或许只是个无伤大雅的小瑕疵。但如果放在在推理大模型身上,幻觉现象就会被进一步放大,其危害程度也会更为严重。
虽然所有大模型都或多或少都存在这个问题,但程度上的差别还是很大。据Vectara公司发布的“幻觉排行榜”数据显示:谷歌的Gemini 2.0 Flash以0.7%的幻觉率,傲视群雄;DeepSeek-V3的幻觉率也仅为3.9%,而DeepSeek-R1的幻觉率却高达14.3%。也就是说,用DeepSeek每7次输出,就有超过1次是胡编乱造的答案。对于习惯把DeepSeek的输出,当成标准答案的人来说,会不会觉得点慌?
事实上,不同大模型间幻觉率的差距,所反映的并不是简单的技术细节上的差别,而是设计理念上的根本分歧。拿上面例子来说,Gemini 2.0 Flash是通过优化训练数据和严格的事实校验机制,将幻觉控制在几乎可忽略的水平;DeepSeek-V3则在预训练中引入了更多高质量语料,提升了事实一致性。而DeepSeek-R1的研发团队却选择了另一条路,即通过“合理推测”填补信息空白,而非验证事实。
比如,要求DeepSeek-R1翻译一句话时,它可能会先脑补上下文、分析潜在意图,再生成结果,从而有很强的“先画靶心再射箭”式的迎合感。这样的好处是通过强化学习(RL)和长链推理(Chain-of-Thought, CoT)大幅提升复杂任务的表现,DeepSeek-R1的数学推理准确率在MATH-500测试中达到71%,就是一个很好的说明。但代价就是过度依赖“自我对话”让模型在面对简单任务时容易“想太多”,随意编造细节,甚至炮制出完全子虚乌有的结论。
2、AI创作,频频翻车
自从有了AI,不少人想“以逸待劳”用AI帮助人工进行内容创作,但尴尬的翻车事件也是层出不穷。比如,广州高校一位教授就在朋友圈里吐槽,他本想通过DeepSeek查询一篇学术论文的相关信息。结果,DeepSeek给出的答案中,论文作者是错的,年份是错的,出版社同样是错的。
人民日报海外版原总编辑也用DeepSeek做过一次尝试,让它写一篇关于自己好朋友(同为媒体人)的文章。DeepSeek给出的答案洋洋洒洒,文风生动、案例丰富,看上去很像那么回事,但当总编辑把这篇AI写成的文章,传给朋友本人看的时候,却遭到对方的全盘否认,因为文章中关于朋友的案例,没有一个是对的。
类似的幻觉现象,相信很多朋友都碰到过,当DeepSeek貌似以斩钉截铁的说法,输出看上去“有模有样”的“伪造”内容时,如果我们缺乏足够的警惕,就可能直接被它震住,甚至将其视为真相,那么我们就很有可能被它带到坑里,甚至付出代价。
02被滥用的GenAI,失控的营销号
如果说幻觉是AI的先天原罪,那么自媒体对它毫无节制地滥用,则是造成“内容信任”灾难的重要推手。去年10月,新华社曾发表文章《警惕“AI污染”乱象》,直指生成式AI在内容创作中的失控现象,引起很多人的关注和重视。文中提到“有MCN机构利用人工智能程序日产上千篇虚假新闻”、 “每日更新十几本电子书,行文却逻辑不通、辞藻空洞;”等不良现象,确实在现实中广泛存在,尤其在自媒体圈更是泛滥成灾。
很多人都知道,以前自媒体圈里有个“山东农妇帮”,不少初中都没上过的农妇们靠着流水线化、模版化的自媒体创作,月入过万。但到了现在,善用AI工具的“江西帮”MCN机构成了这个赛道的新王者,他们每天可以轻轻松松批量生成4000至7000篇营销号文章。这些文章主题五花八门,从“震惊!某明星私生活曝光”到“专家揭秘:喝这种水能长寿20年”,无一例外地以耸人听闻的标题和言之凿凿的细节,收割互联网流量。
所谓的“江西帮”只是其中的代表,不过是冰山一角。通过各种方式利用AI,生成粗糙甚至伪造内容的营销和无良机构,数不胜数。如果这一现象不加以遏制,除了会给读者用户带来各种误导外,被滥用的GenAI还可能导致内容创作领域里出现“劣币驱逐良币”的现象。当AI生成的低成本垃圾内容,以极高的传播效率,瓜分了各大平台的流量,挤占了优质内容的生存空间,导致一些深度内容的原创作者因耗时长、收益低,或主动放弃或被行业抛弃时,我们还能看什么?
03在AI之前,互联网早就是垃圾场了
1、互联网的信息大爆炸
看事情要公正客观,我们必须要承认,互联网的堕落并不是始于AI。早在1990年代末,互联网就开始迎来了信息大爆炸。看一组数据就可以更直观的理解了,2010年全球网站数量约为2亿左右,到了2020年这一数字已经接近13亿,翻了6倍多。
信息的指数级增长带来了空前的便利,也埋下了隐患。2018年,牛津大学互联网研究所发布了《2018数字新闻报告》该报告指出,由于假新闻泛滥导致的渠道或平台信用危机,让社交媒体的新闻发布与索取功能正在被大多数调查者所抛弃,并把矛盾直指当时自媒体生态中的王者Facebook。由此可见互联网内容的“垃圾化”由来已久,不能让AI背这个锅。
但话说回来,现在有了AI,确实大大提高了互联网垃圾内容的产出效率。以前,一个熟练的写手一天最多产出10篇千字文,如今借助DeepSeek,一小时就能生成数十篇,且每篇都带有看似专业的“数据支撑”和“案例分析”。试想,如果规模化运营的营销号“集群”,实施“饱和式”攻击,该会是什么情形?
2、要有自我判断和独立思考能力
在K哥看来,互联网垃圾内容的泛滥,给用户带来的最直观影响,就是让大家逐渐习惯于“速食信息”,对深度阅读和批判性思考的需求日益降低。看看我们身边的人,有多少人读文章只看标题,看视频3秒钟不勾人就刷走,更不用提还有谁会计较哪篇文章的数据不准确,论据不真实。而“DeepSeek”们的出现,更好地顺应了这一趋势,它的高效产出填满了用户对“即时满足”的渴望,却也对那些完整展示逻辑和真相的内容越来越不友好,让它们越来越没有容身之地。
这反过来提醒我们,在面对各种信息时,哪怕它包装的很“权威”,我们也不能盲目轻信,而是要保有独立思考、批判性思考的习惯和能力,学会通过多渠道验证、逻辑分析等方式,辨别信息的真伪,和结论的可靠性。让自己始终保持认知上的深刻和清醒,避免上当受骗。
04净化互联网环境,从我做起
1、不必谈AI色变,积极拥抱未来
说了那么多,K哥绝不是想让大家谈AI色变,将其视为洪水猛兽。相反,K哥想强调的是,即使DeepSeek有时候会“胡说八道”,但我们也不能因噎废食,因为AI技术的发展和应用是大势所趋,是时代洪流。就像工业革命虽然带来了污染,但却更大程度上推动了人类的进步,AI的普及同样是一场不可逆的变革,尽管它身上依然存在这样那样的“问题”。
看看现在各种工作和生活的场景,从翻译工具到智能客服,从医疗诊断到金融分析,AI已经开始重塑我们的工作模式和生活方式。面对这些变化,我们最应该做的就是张开双臂,积极拥抱,学会如何让AI更好地为我所用,而不是逃避、恐惧或假装看不见。
2、善用AI工具,减少幻觉产生
对于如何用好AI,减少幻觉的发生,我们也不是什么都不能做。以DeepSeek为例,它的推理能力依赖于强化学习和长链推理,但缺乏足够的事实校验机制。因此,我们可以通过优化提示词(Prompt)加以约束。比如,在要求DeepSeek生成内容时,可以明确注明“禁止杜撰事实,所有数据和案例必须引用可信来源并注明出处”、“仅基于已知知识回答,不得推测”等。这样的做法虽然不能完全消除幻觉,但至少可以一定程度上降低幻觉概率。
另外,结合检索增强生成(RAG)技术,将外部知识库接入模型,也能有效提升输出的准确性。当然,我们还有最后一个杀手锏,通过“AI+人工审核”的方式,对AI生成的内容进行二次把关。尤其是在一些对准确性要求较高的医疗、金融、法律等领域,通过这种方式,既可以充分利用AI的高效性,又能最大程度确保内容的真实性和可靠性。
凯文·凯利曾在《失控》一书说过:“最深刻的技术是那些看不见的技术,它们将自己编织进日常生活的每一个角落”。当前的AI技术就是如此,它已经慢慢渗透到我们工作生活中的各个角落。而我们要做的,就是最大程度地利用它、驾驭它,让它成为我们趁手的工具,而不是让自己成为不分真假,随波逐流的“工具人”。共勉!

