DeepSeek是中国AI市场的“鲶鱼”?
2025年春节前后,DeepSeek凭借开源多模态模型Janus-Pro与DeepSeek-R1推理模型的发布,以“低成本、高性能”的颠覆性优势横扫全球市场。其开源策略不仅让开发者以API调用成本仅为GPT-4的1/30的极低成本调用顶尖模型,更打破了此前行业内对于“算力决定效用”的认知,甚至导致英伟达单日市值蒸发4.3万亿元人民币(约合6000亿美元)。
DeepSeek爆红之后,迅速迎来各行各业的“接入潮”。其AI助手在140个国家和地区的应用商店下载量登顶。随着越来越多大模型和小模型的接入,行业内也由此引发了不少争论,其中关于技术替代性和生态主导权的讨论比较激烈。
所谓“技术替代性”,是指DeepSeek通过MoE架构(混合专家模型)与FP8混合精度训练技术,将训练成本压缩至557.6万美元,仅为GPT-4o的1/18,却实现了与GPT-4o和Claude-3.5相媲美的性能。这种“算法创新+有限算力”的路径,是否意味着传统“算力堆砌”范式的终结?如果算力不再是门槛,模型训练的准入成本将大幅下降,中小企业有望基于开源模型快速开发行业应用,极大推动AI的普及。但对依赖高算力的云服务商而言,则可能意味着被边缘化的风险。
而“生态主导权”之争,则聚焦于开源代码的复刻与再开发。DeepSeek的开源成果甚至被微软、亚马逊等美国科技巨头纳入产品体系。闭源厂商担忧“开源即统治”的策略可能重构行业权力结构,形成类似Android的生态霸权,从而进一步压缩其商业利润空间。
因此,随着企业纷纷接入DeepSeek,其引发的,不仅是技术替代路径的再思考,更是生态主导权争夺的全面博弈,值得深入分析。
厂商接入DeepSeek的路径与模式
DeepSeek的开源策略如同一块磁石,吸引了从云服务商到垂直软件厂商,再到独立大模型公司的广泛接入。不同类型的厂商基于自身资源与战略需求,探索出差异化的融合路径。
数据猿对各类企业接入DeepSeek的路径和模式进行梳理和总结,从云厂商、垂直软件厂商和独立大模型厂商三类企业展开分析。
云服务商接入DeepSeek主要是进行技术整合和业务协同,作为算力基础设施的提供者,云厂商率先将DeepSeek融入自身生态,形成了“底层算力+模型服务”的双引擎模式。在接入的方式上,云厂商的接入方式有三种:
1.API直连:通过云平台直接调用DeepSeek模型。例如腾讯云HAI平台提供DeepSeek- R1等模型的服务,允许开发者一键创建API接口,直接调用DeepSeek的模型服务满足其业务需求。
2.私有化部署:这种方式主要针对安全性要求比较高的行业或企业,比如金融、政务等行业,云服务厂商一般会提供本地化部署方案。例如:中国电信天翼云凭借以“息壤”为核心的一体化智算服务体系和能力,实现昇腾芯片+MindSpore框架+DeepSeek模型全栈国产化适配,推理性能比肩国际高端GPU,从昇腾硬件、推理引擎到模型服务,实现技术链路100%国产化。
3.混合架构:有自研模型的云厂商也会采用这种融合的方式实现业务的协同,例如:阿里云PAI平台支持DeepSeek-V3、R1及蒸馏模型的一键部署,结合vLLM加速框架实现推理吞吐量的提升。
无论是哪种接入方式,DeepSeek的融入确实给云厂商带来了业务的协同发展,实现了算力资源的高效变现。例如:华为云通过昇腾910B集群优化DeepSeek推理效率,推出“ModelEngine”本地化部署工具,帮助车企大幅压缩模型加载时间 。
如果说云服务厂商的接入是技术整合和业务协同,那垂直软件厂商的接入则是围绕功能增强和成本优化。软件厂商将DeepSeek看作“智能引擎”,通过嵌入现有产品中,实现产品AI功能和服务的快速升级。软件厂商的接入模式也主要有三种:
1.轻量级API调用:通过简单接口调用模型能力,例如钉钉集成DeepSeek-R1的AI会议纪要功能,实现语音转文字、任务自动生成和多语言实时翻译等功能。
2.私有化定制开发:针对企业需求定制模型。例如,幂律智能基于DeepSeek-R1开发的合同审查系统,实现条款风险识别准确率的大幅提高。
3.端侧轻量化部署:在终端设备嵌入小型化模型。例如,比亚迪DiPilot 5.0引入DeepSeek-R1模型后,提升了云端和车端的AI推理能力。
对于垂直软件厂商而言,接入DeepSeek的主要目的就是降本增效,一切都是围绕着服务和成本出发。同时,也在一定程度上实现了功能差异化竞争。而对于独立大模型厂商而言,DeepSeek的爆火给他们带来了较大冲击,从目前独立模型厂商的动作看,两极分化的状况非常明显。开源的大模型厂商积极拥抱合作,而闭源的大模型厂商则开始出现赛道分化。
开源阵营与DeepSeek的合作主要体现在两个方面,一是在合作模式上,不少厂商基于DeepSeek微调自家的行业模型,从而加深了行业的深耕力度。例如:智谱AI推出“GLM-DeepSeek”金融模型,针对银行风控场景优化,某城商行使用后坏账识别准确率大幅提升。二是贡献代码反哺开源社区。例如:MiniMax开源的新一代MoE多模态训练框架,采用线性注意力机制替代传统Transformer架构,支持高达400万token的上下文处理能力,显著提升长文本场景的计算效率。而DeepSeek的MLA架构优化了资源受限场景的推理效率,双方技术路线形成互补,为开发者提供从长文本解析到高效推理的全栈解决方案。这种技术的合作和共享,吸引了越来越多的开发者参与生态建设,促进了行业的快速发展。
与开源阵营不同,闭源阵营面临的挑战更大,其中最大的挑战就是“三不够”,即:钱不够、卡不够、数据不够。在这种情况下,“AI六小虎”已经开始分化赛道,当然这并非完全因为DeepSeek的影响,更多的是资源不足下,企业不得不转而求其次。例如:百川智能再收缩和裁撤金融业务、all in医疗;零一万物放弃了原定的万亿参数 Yi-X-Large 模型训练计划,转而训练更轻量化、更具商业落地前景的 MoE(混合专家)模型 Yi-Lightning。
不得不说,在DeepSeek的影响下,独立大模型厂商的分化正在重塑产业格局,开源阵营通过生态合作快速扩张,而闭源阵营则被迫在细分领域寻找机会和生存空间。
DeepSeek重塑产业格局
从目前众多厂商接入DeepSeek的方式和对公司业务产生的影响来看,DeepSeek的开源策略和技术突破,确实改变了企业的技术选择逻辑,同时也影响了企业的业务和战略选择。但如果站在更高的维度观察和思考,DeepSeek也进一步引发产业链上下游的连锁反应,其影响已经超越了单纯的技术竞争,正逐渐演变为商业生态的重构。
首先,算法革新和开源模型降低了进入门槛,使得整个供应链下游的机会成本降低,加快了场景应用的落地。过去十年,大模型的发展依赖“算力堆砌+数据膨胀”的路径,以GPT-4为例,其训练成本约1亿美元。这种模式导致AI行业陷入“算力军备竞赛”,中小企业根本无力参与。然而DeepSeek的出现带来了“算法革命”和工程优化,前者通过MoE架构(混合专家模型)动态激活8/256个专家模块,使得硬件利用率提升4.8倍,后者通过MoE架构和FP8混合精度技术,训练成本压缩至557.6万美元(仅为GPT-4的1/18),并实现昇腾910B芯片推理效率的大幅提升。
这意味着AI的入局门槛大幅降低,算力效率大幅提高,各行各业的中小企业也将会积极参与,由此导致行业下游的企业不再被动的观望,而是可以基于开源模型快速开发应用,享受技术革新带来的好处。比如,山东寿光某农场,使用DeepSeek开发的智能灌溉系统,在节水40%的情况下,使种植的番茄增产18%。类似的行业应用落地场景在不断增加,并向更多的领域扩散。
其次,市场竞争也面临重构,大厂开始分化,创业公司“断臂求生”。对于云厂商而言,他们的发展方式出现“双轨制”,也就是“两条腿”走路:一是将DeepSeek与自研大模型结合,用户可以自由选择底层模型,比如腾讯的元宝,用户在使用时,可以选择DeepSeek或混元模型;二是将DeepSeek与当前业务协同起来,帮助客户实现降本增效。
对于垂直软件厂商而言,尽管他们没有自研大模型,但可以在现有的产品和服务中增加DeepSeek的功能,从而进一步实现与用户的深度绑定,比如用友网络在ERP系统中基于DeepSeek-R1开发的合同审查系统,实现合同条款自动解析与风险预警。
最难的就是AI行业中的创业公司,尤其是闭源厂商,在原有的“三不够”挑战没有被完全解决的情况下,开源的Deep Seek和抱团取暖的开源厂商们,已经将其逼近“悬崖边”,不少闭源厂商不得不另辟蹊径,寻找适合自己的优势领域和场景。
由此可见,无论是大公司还是中小企业,无论是云厂商还是软件厂商,对于DeepSeek的积极接入总算是没有让自己在激烈的竞争中落后。然而,对于大模型厂商而言,这场可能重塑产业格局的“风暴”可能才刚刚开始,未来大模型厂商的生存逻辑是什么?可能选择的方向在哪里呢?
大模型厂商的“十字路口”
回首2023年初,当ChatGPT问世时,全球震惊,人工智能的热潮迅速席卷全球。很快,大模型也在国内热闹起来,一时间各大科技公司纷纷宣布已经投入研发大模型,并纷纷在最短的时间内发布相关产品,引发了“百模大战”。然而,随着DeepSeek的问世,大模型企业也或多或少的受到了冲击,对于大模型企业未来发展和转型的讨论也越来越多。
第一个被热议的话题就是有了DeepSeek之后,底层模型的竞争是否还有意义?认为仍有必要的加大底层模型研发投入的人认为,首先,不同行业对底层模型的需求存在差异,而底层模型的竞争可以推动技术适配细分市场;其次,DeepSeek的成功依赖于算法优化与硬件效率的协同,但其他厂商在异构计算、边缘设备推理等领域仍有创新空间,例如,AMD通过集成DeepSeek-V3模型优化Instinct MI300X GPU推理性能,结合SGLang框架实现吞吐量提升,说明底层模型的竞争可驱动硬件生态多样化;第三,DeepSeek的开源策略虽降低了应用门槛,但单一技术路径可能抑制创新活力,例如,Meta被迫开源线性注意力框架支持400万token长文本处理,OpenAI考虑部分开源应对竞争,印证行业探索多技术路线的压力,这种压力促使行业探索更多技术路线(如多模态、跨平台整合),避免形成技术霸权。
而反对底层模型竞争的人也有三个方面的观点,首先,DeepSeek通过“低成本推理+开源生态”重构行业标准,其模型性能和成本优势形成护城河。中小厂商若重复投入底层研发,可能因资源不足陷入“无效内卷”;其次,DeepSeek的开源模式使开发者可基于其框架快速构建应用,无需从零开发底层模型。例如,腾讯元宝、百度文心等通过接入DeepSeek能力实现产品升级,说明行业重心已从底层竞争转向应用层创新;第三,在DeepSeek的冲击下,头部厂商转向商业化落地,中小厂商聚焦细分场景。这种分工模式更符合资源配置效率,底层模型的集中化可能成为常态(类似安卓系统与手机厂商的关系)。
数据猿认为,这个问题的争辩目前很难有定论,底层模型竞争的意义需分阶段看待:短期内,DeepSeek的领先地位可能削弱重复性竞争;但长期来看,技术突破仍需多元探索。行业的未来或将呈现“一超多强”格局,通用模型由头部主导,垂直领域则由专业化模型补充。
第二个被关注较多的话题是大模型厂商的转型路径选择。从目前大模型厂商的动作分析,转型的方向主要有三个:一是To B服务升级,从模型销售转向“模型+行业Know-how”解决方案;二是垂直领域深耕,聚焦长尾场景构建壁垒;三是通过开源社区运营,构建生态影响力和长尾创新。
To B服务升级:大模型厂商通过将通用能力与垂直行业知识结合,解决企业数据隐私、场景适配等核心问题,例如:阿里云与一汽合作,通过通义千问+DeepSeek混合架构,将车型开发周期大幅压缩。
垂直领域深耕:大模型厂商可以针对某些专业性强、数据敏感性要求高的行业,打造具备行业专属知识库的轻量化垂直模型,例如:医疗大模型融合医学文献、临床数据和专家经验,解决诊断与药物研发的“最后一公里”问题。这些垂直领域的大模型有两个竞争壁垒,一是数据壁垒,二是场景壁垒,双重壁垒为大模型厂商的市场竞争和商业化带来足够的保障。
开源社区运营:开源策略是优势是能够降低企业使用门卡,同时又能通过社区贡献反哺技术迭代,有利于行业的快速发展,但是它的难题在于商业化面临挑战。开源的大模型厂商需要平衡开源生态与核心商业利益,目前,OpenAI虽未完全开源GPT-4,但通过API服务与开发者形成共生关系,而DeepSeek则采用MIT协议开源,允许商业用途并推动下游应用创新。
当前大模型厂商的转型呈现三大特征:技术深度垂直化(从通用到行业专用)、商业模式分层化(基础服务免费+增值服务收费)、生态协作开放化(开源与产业链协同)。预计未来大模型的竞争将围绕着技术(多模态能力提升与边缘计算优化)、商业(探索MaaS与AI Agent集成)、政策(数据合规与开源治理体系完善)展开,而厂商需要根据自身资源禀赋选择路径,找到公司的生态位。例如,头部企业可布局全栈能力(如百度文心一体机),初创公司则需聚焦细分场景(如岩芯数智深耕金融AI)。
“后DeepSeek时代”的趋势
目前来看,DeepSeek的出现和众多厂商的接入,并非短期的热点现象,行业的发展趋势可能会因此而发生转变,其中,大模型厂商的转型发展也是“后Deep Seek时代”的短期趋势之一。数据猿认为,中国的大模型产业,正在从之前的“规模扩张”转向“价值深挖”。
短期来看,两个趋势非常明显,一是大模型行业的市场整合在加速,缺乏差异化能力的中小厂商被并购或退出,头部效应加剧。DeepSeek开源模型带来的技术普惠化显著降低了行业门槛,但也加剧了市场竞争的“马太效应”。当前,中国大模型市场已形成“头部企业主导+细分赛道差异化竞争”的格局。头部企业如阿里云、腾讯云凭借算力资源、行业数据积累和生态整合能力,加速抢占市场份额;而中小厂商若无法在垂直场景中建立技术壁垒(如医疗领域的诊断精度、制造业的实时质检能力),则面临被并购或退出的风险。例如,智谱AI等“六小虎”企业已通过聚焦政务、金融等场景的定制化服务稳固地位,而部分通用模型初创公司因同质化严重被头部企业整合。
二是政策引导强化,数据安全与国产化要求推动DeepSeek在关键行业的深度渗透。在国产化替代与数据主权强监管的双重驱动下,DeepSeek的“开源+国产芯片适配”模式成为关键行业首选。例如,华为昇腾等国产芯片厂商通过与DeepSeek的深度优化,完成适配。政策层面,国家超算互联网平台已上线DeepSeek-R1、V3、Coder等系列模型,要求能源、交通等关键基础设施优先采用国产化大模型解决方案。同时,数据分类分级与隐私计算技术的强制应用,进一步巩固了具备本地化部署能力的头部厂商优势。
站在3-5年的长期维度看,大模型的技术融合和全球化竞争仍然值得关注。技术融合方面,未来大模型将突破单一模态局限,向“多模态+边缘计算+可信机制”的融合架构演进。例如,DeepSeek R1模型已通过强化学习框架实现与物联网设备的协同推理,在智能制造场景中可实时分析生产线数据并动态调整参数。区块链技术的引入则解决了数据溯源与模型可信问题,如政务领域的合同审核系统通过链上存证确保决策透明。此外,类脑计算与神经符号系统的结合将推动大模型从“感知智能”向“因果推理”跃迁,在生物医药、材料研发等科学领域开辟新场景。
在全球化竞争方面,DeepSeek开源生态或成中国AI技术输出的核心载体,挑战Meta、OpenAI主导地位。目前,DeepSeek的开源策略正在重构全球AI技术生态。其MIT协议开源框架已吸引几十个国家开发者参与贡献,形成“基础模型开源-垂直插件商业化”的生态闭环。例如,东南亚金融科技公司通过微调DeepSeek模型快速开发本地化风控系统,而欧美企业则利用其多语言能力降低跨国服务成本。这一模式直接冲击OpenAI的API订阅制与Meta的封闭生态,成为发展中国家AI技术自主化的重要依托。
“后DeepSeek时代”的中国大模型产业,正从“规模扩张”转向“价值深挖”。短期内的市场整合与政策合规化将为行业奠定稳健基础,而长期的技术融合与全球化生态竞争,则考验着中国能否将工程化优势转化为基础理论突破。未来的AI竞争,不仅是算力与算法的比拼,更是开放协作与治理智慧的较量。
文:赢家/ 数据猿
责编:凝视深空 / 数据猿