DeepSeek的交通已经下降,会冷却吗?它对它的幻觉
发布时间:2025-07-29 09:45
半年半年前,DeepSeek引起了全球轰动,无数人将其作为“国家财富”项目。但是,仅半年后,它似乎“从祭坛上掉下来”。是真的吗?我们回顾了QuestMobile发布的“ 2025第二季度AI应用值列表”。 Deptseek的平均每月下载量从第一季度的81.113亿下降到今天的225.89万,减少了72.2%。有人说:这是由于Deptseek对产生“幻觉”内容的热爱而引起的。如今,社交媒体上的“如何消除DeepSeek的AI风味”已成为一个热门话题。当用户反复更改及时的单词以尝试删除文本中的机械感觉时,出现了一个残酷的问题:是否重复“ AI Genius Boy” - 重复 - 重峰芬旺的道路?现在,我们将深入讨论这个问题。运动AI味道:当完美文本变成Xiaohongshu的“机械构建块”时,寻找“ DeepSeek” +“ AI风味”将看到一个larGE数量的用户抱怨DeepSeek的随机内容:用户 @无无无无xx希望Deviceek可以帮助他在他的旅行目的地附近找到十个最佳的购物者。结果,当他按照所提供的答案进行搜索时,他发现所有十个“声誉商店良好”都不存在,并且它们都以大型模型为主。用户 @官网_xxx引用了DeepSeek给他的上述文献,但他发现“ 2023年的国家发展和改革委员会工业经济学研究所”的报告已有NOTI。当他问DeepSeek时,他发现DeepSeek在他的思维过程中直接陈述:“现在用户需要特定的链接,但是实际数据是模拟的,我没有真正的资源。”扩展全文 用户@nana true Love X也发生了同样的问题。EK的答案很好。当他继续询问该公司的位置时,他发现DeepSeek在思考过程中清楚地说明了“这是一个假设的公司,它可能不存在现实,我需要继续根据以前的小说提出一个合理的答案……我需要考虑总部的合理位置。” 在对大型模型的答案中,“已记录”了太多的用户,这只是大型模型性能不佳的一部分。 用户的投诉 @官网网还反映了许多网络。他指出,“ DeepSeek的论文介绍中充满了'但是'此外,他的导师评论说,纸质写作风格就像机器人制造的构件一样。” - 这种称为AI腔的症状是越来越注意的“ AI味道”,并且对许多用户抱怨。 为什么“ DeepSeek”变得愚蠢? 大型模型的AI的冷气味在于逻辑暴力,绝对背后ER: 如上所述,链接单词的大型模型的巨大希望已成为一种症状。许多与逻辑相关的内容的内容严格挤满了“第一/秒/计数”,迫使研究人员用直接单词禁用特定的词汇。与连接单词类似,大型模型似乎喜欢“短句子”:“近年来”,“但是”,“请记住”,“包括主要步骤”,“包括”,等等。 此外,大型模型的答案似乎在数据本身中特别热情:例如,实验结果的描述是“根据表3数据,实验组占87.3%,但忽略了该网站的推导和验证网站衍生网站的细节 - 冰上的冰点显示了对逻辑模型的大型模型的强烈追求。 除了潜在的逻辑暴力,更关心的现象或更深的疾病来源引起的大型模型引起的随机答案ERS确实在于互联网本身的“数据代谢疾病”。当像Deptseek这样的大型模型吃掉互联网语料库时,他们还吞噬了他们制作的“语言毒药”: 首先,AI生成的内容污染培训污染:根据斯坦福大学的“ 2025年人工智能指数”,中国的AI生成的AI用户达到了2.3亿,其中30%用于创建内容。这些AIS创建的机械基因的内容被重新传导为训练营养,形成了数据育种,从而进一步增强了“肢体”真正的人类文本。当沙漠中的雪人成为常态时,绿洲被称为异教徒 - “ AI味道”的本质是差异的沙漠 - 语言变化。 其次,人类语言习惯对驯化:据报道,欧洲许多开放的AI用户发现“ delve”一词经常出现在大型模型提供的回应中,但是在欧洲和美国的社会中,很少有人使用这个词在他们的日常生活中。那么,为什么chatgpt对使用这个词如此热情?调查后,监护人发现,可以将这种“习惯”调查回非洲大陆 - 大量的廉价劳动力使大型模型公司以巨大的成本找到了大量的机械通道 - 他们的作用是评估语言模型的产出和增加产出输出的人。在他们的英国业务中,delve一词经常使用。换句话说,Achatgpt对Delve一词的偏爱实际上是人工标记创造的无意识的烙印。 但是,这一结果导致使用“ Delve”一词在欧洲摇摆2,700% - 用户开始模仿AI的“良好表达”,从而进一步降低了差异不同的语言。该结果进一步加剧了大型模型的“数据代谢疾病”。 在更深层次的层面上,大型模型本身具有“胎儿疾病轻松地“做随机对象及其关键是“大幻觉模型”。 马里兰州的科学研究团队系统地测试了今年的自动围墙框架,从而系统地测试了诸如场景违规中的GPT-4V(例如“沙漠中的雪人”和“雪中的棕榈树”)的性能。结果显示为: GPT-4V的准确性下降了66%,传统情况的准确性小于80%。他们引入的场景的进攻模型使大型的“认知性不和谐”模型在语言幻觉上践踏,并激发了他们强迫参数知识来解释异常(例如,断言“沙漠是下雪是正常的”)而不是视觉输入。 通过一系列试验,他们认为大型认知幻觉模型的弱点的根本原因在于视觉语言模块的分离 - 语言模块在很大程度上取决于先前的知识E,从而阻止了视觉信号校正的影响。 大型幻觉模型的例子也很少在Deptseek中: 几乎所有希望与DepSeek完成专业撰写纸的用户都经历了一定程度的学术小说小说的存在,也就是说,它会自动生成非真实的文档和理论以及统计活动,以满足“完美的结果”,以使结果完美。 这种认知失调来自模型对语言先验的过度希望 - 当视觉信息与常识冲突时,大脑选择相信现实的经历,而AI也是如此。 此外,DeepSeek模型本身也对培训语料库造成了致命的伤害。 根据Think Think Tank在今年1月发布的一份Think Tank Tank报告,全球主要的AI模型的语料库培训占中国和英国语料库的90%以上,而中国股票的费用不超过5%。数字化的速度CSSCI Core Journal的搞笑的高质量中国语料库仅约30%。超过70%的期刊受到成本,版权和技术因素的约束,因此不能习惯于语料库。 因此,变得更加谦虚的DeepSeek具有非常 - 血症的基础。随着AI语料库本身的迭代反对,训练新的DeepSeek模型的影响就像用蒸馏水制作酒精一样 - 信息熵的不断衰减是不可避免的。 值得一提的另一点是内容评论。大型模型产生的内容是投机,并且对预防发电和内容有一些限制。但是,尽管内容考试机制可确保安全性,但它也削减了语言的刺和花朵。当“敏感词汇”继续扩展时,模型的输出自然往往是moresafe但不寻常的表达方式。 战斗平庸: 打破控制的指南思考 那么,我们如何在不可避免的大型模型的“技术退化”中与平庸作斗争呢?我有三个建议: 第一点是通过大型模型的幻觉来掌握能见度。对于AI提供的完美答案,我们通常必须交叉重新启动基本数据,并且在搜索和确认强大的数据库(例如CNKI)方面非常出色,以避免过度希望大型模型的输出结果。 第二点是掌握大型模型逻辑的应力测试能力。对于大型模型提供的结果,我们可以要求使用反例以自己的观点进行争论,并观察到该过程中是否被困在偶然的情况下。它将破坏逻辑暴力的极限,并获得可以真正建立调查的内容。 掌握这三个功能将是真正使用AI的极大帮助。 最后,我们不能否认AI的实力。在许多方面,AI在许多方面仍然“不可替代”,例如M助攻信息,复杂的概念解释,创新的实验思想等,它仍然是AI应用程序在适当领域中发挥最大价值的最佳解决方案。因此,今天,当生成性AI无法控制地整合到人类社会的各个方面时,人们本身也必须相应地进步。这种批判性思维是需要在AI时期进行的主要竞争。 结论:维持分页的野性 - 这是对工具理性的思考 DeepSeek的“方旺旺的困境”反映了人们希望投入技术的“ USPLED”。但是,真正的智慧从来没有来自筹码,而是在我们与AI的创造性冲突中爆炸。当Geely Automobile用DeepSeek重建板载语音系统时,工程师故意保留了5%的“失业答案”(部分笨拙但充满人类诱惑)已成为人类计算机接触中最动人的部分。 也许,常见的永远不是工具,但是我们使用工具的人。只有想到AI而不是替代品,我们才能在算法流中维持人类思维的信标。 Chaos AI Innovation Institute是Nego Founderssyo,业务领导和创新项目项目运营商AI的实用共同创建平台。 我们对系统 +出色的同行 +实践教学社区进行了六项基础研究,并专注于AI工具的精通,场景应用程序和本地产品创建,这将帮助您的公司破坏增长的瓶颈并实现业务跳跃。回到Sohu看看更多