DeepSeek掷出FP8骰子
芯片指数与AI算力指数近期持续走高背后,是AI浪潮与大模型算力需求剧增下,国产替代加速与供应链多元化路径日渐成熟的趋势。而DeepSeek掷出FP8这颗 “魔力骰子”,不仅精准切中行业对高效低功耗计算的迫切需求,更直接引发了一场围绕低精度计算的现象级热潮,为国产算力赛道再添一把火。
虽然DeepSeek V3.1预告将匹配UE8M0 FP8 Scale参数精度,并引爆FP8及低精度方面热度,但在行业内,该参数已非新事物。
FP8是一种8位浮点数格式,遵循IEEE 754规范。在计算机里,数据要存储和计算,就像物品要放在盒子里,浮点数就是一种把小数用特定规则装起来的“袋子”。“小文件袋”FP8之前,行业更多使用“大文件袋”FP32、“中文件袋”FP16等。
早在2022年9月,英伟达即在GTC大会上首次将FP8写入产品路线图,预告Hopper架构的H100 GPU将原生支持FP8。但由于低精度涉及芯片、软件、模型、标准等全产业链环节,包括CUDA、PyTorch、TensorFlow等软件栈平台在2022年时也都没有原生FP8算子。
并且,2022年行业认知还聚焦在“大模型需要大力出奇迹”“精度不能降低否则模型会崩”的技术路线,直到2023年GPT-4与Llama-2验证了FP16够用,FP8才逐渐被行业尝试接纳并测试deepseek。
2023年,由Meta、微软、谷歌、阿里等头部厂商共同成立的开放计算项目OCP发布《MX规范》第一版本,通过“块缩放”将FP8包装为可以大规模落地的MXFP8,其中UE8M0MX规范中为AI运算设计的8位指数、无尾数编码方式,作低精度数据块级缩放因子,可避免训练中数值溢出/下溢,保障稳定性。
同时框架厂商也开始向内填充代码,AI投资主线从“有没有GPU”的“囤卡”策略,逐渐倾斜到“省不省算力”的效率路线。2024年,行业开始出现万卡集群、推理爆发,成本、功耗、显存逐渐成为更核心的问题,该行业节点,具备省显存、省电费、速度快等价值的FP8逐渐被更多厂商关注并布局。
2024年12月,DeepSeek通过V3模型跑通MXFP8,意味着在复杂的AI训练任务中,MXFP8可以高效发挥作用,吸引众多AI开发者、研究机构与相关企业的关注。
从MXFP8到UE8M0 FP8,行业内编码方式、动态范围、硬件处理、应用场景和生态发展均发生了升级迭代,更加聚焦大语言模型训练等场景,在处理Transformer架构中长尾分布的权重时表现良好。但趋势上,两者均归属于FP8类别,体现了低精度计算在提升效率上的优势,推动产业链厂商在低精度领域布局。
近期,借DeepSeek“东风”,二级市场多家芯片公司与券商机构密集披露FP8布局与解读,背后既有技术因素影响,更是国产AI芯片产业争夺产业主导权的趋势驱动。
此前,工信部印发《算力互联互通行动计划》,提出到2026年,建立完备的算力互联互通标准、标识和规则体系;到2028年,基本实现全国公共算力标准化互联,形成具备智能感知、实时发现、随需获取能力的算力互联网。
行业侧,据壁仞研究院研究人员观察,自OpenAI开源首个原生态支持FP4格式的GPT-OSS系列大模型,AI领域已进入低精度计算时代。主要是因为AI潮流下,大模型需要越来越多的硬件,包括GPGPU(通用并行图形处理器)芯片,来支撑训练和推理的计算。而模型低精度量化能够同时有效应对计算量大、储存不足和数据传输慢这三个问题。
爱芯元智相关负责人对第一财经记者表示,FP8的混合精度训练框架(如DeepSeek的分块量化与高精度累加技术)将推动算力厂商调整技术路线。多精度混合架构可同时运行FP32、FP16与FP8任务,训练效率较传统方案显著提升,这种技术迭代已从训练端向推理端渗透。
曦望联席CEO王湛对记者表示,大模型推理对低精度数字的计算量需求极大,聚焦推理场景的芯片需重点强化低精度计算能力,同时可适当舍弃部分高精度计算能力——因高精度计算在推理场景中使用频率低,且会增加芯片成本。
对于FP8及低精度趋势将对算力行业产生的影响,王湛表示,低精度浮点技术是当前AI领域的一个重要趋势,尤其是在模型推理方面,它将缓解硬件需求压力与HBM(带宽内存)瓶颈问题。前者主要体现在能用更少的算力来完成运算、降低对内存容量和带宽的要求,并减少芯片间的互联需求,有效降低芯片功耗;后者主要体现在高HBM因其高带宽特性,是目前大模型推理的关键技术。DeepSeek对FP8技术的推动,通过采用FP8等低精度技术,国产厂商可以选择使用其他技术路线来弥补HBM技术的短板,实现同样的功能。
王湛表示,低精度并非可以无限追求。当精度过低(如低于FP4),数据可能会因为失真而无法承载大模型所需的信息。除非在算法或框架层面有重大变革,否则FP4可能已是低精度的技术极限。另在应用场景中,低精度数据主要应用于模型推理,但在大模型的训练或微调过程中,为了确保精度,通常仍需要更高精度的数制,如FP16和FP32。
爱芯元智相关负责人也认为,FP8的落地需芯片、框架、算子全链路适配。如DeepSeek在训练中采用DualPipe并行算法(DeepSeek团队提出的创新并行计算算法),通过计算-通信重叠将跨节点MoE训练的通信开销降至接近零,这要求InfiniBand(无限带宽,用于高性能计算的计算机网络通信标准)网络支持FP8数据格式的高效传输。国产算力厂商正通过定制化方案突破生态壁垒。同时,FP8在矩阵乘法等操作中表现优异,但在累加或特定函数计算中仍需高精度支持,包括爱芯元智在内的国产厂商正尝试通过定制化方案突破生态壁垒。
摩尔线程副总裁王华也在此前的分享中强调,精度替换只能部分进行,无法完全替代,精度敏感的环节仍需保留高精度计算。在精度策略的设计上,王华观察到当前行业趋势更倾向于优先扩展模型参数规模,这是因为模型训练中实际使用的精度范围仅占理论值域的一部分,造成“精度空间浪费”,而增大参数规模能有效提升模型效果。此前业界对FP8的应用尚处探索阶段,而DeepSeek已将其成功应用于模型训练,预计未来会有更多模型采用FP8精度。
壁仞研究院预测,随着低精度训练方法的成熟和更多芯片在硬件上对低比特格式的支持,大模型的训练时间将大幅缩短,这将催生更大、能力更强的模型,支持更长token序列并提供更快的响应。此外,低精度计算及其他性能优化方法,不仅能显著提升大语言模型等文本生成任务的效率,还能大幅改善多模态领域,如目前响应速度极慢的AI视频生成、世界模型等场景的生成效率。
财通证券引用IDC数据分析称,受宏观因素影响,中国AI加速卡国产份额已由2023年的不足15%提升至2025年上半年的40%以上,预计年底将过半。国产算力产业链已完成“融资—研发—场景落地”的正向循环,正稳步走出一条独立于海外生态的可持续路径。原文出处:DeepSeek掷出FP8骰子,感谢原作者,侵权必删!