国产AI公司深度求索(DeepSeek)开源周正式启动,并公布首个开源代码。
2月24日,DeepSeek宣布启动“开源周”,首个开源的代码库为FlashMLA,这是针对Hopper GPU优化的高效MLA解码内核,针对可变长度序列作了优化,目前已投入生产。

此前2月21日午间,DeepSeek宣布,从下周开始,他们将开源5个代码库,以完全透明的方式与全球开发者社区分享他们的研究进展,每日都有新内容解锁,进一步分享新的进展,并将这一计划定义为“Open Source Week”。
根据DeepSeek在社交媒体上的内容,在H800上可以实现每秒处理3000GB数据,每秒执行580万亿次浮点运算。
Hopper是英伟达的GPU(图形处理芯片)架构,例如H100和H800,发布于2022年,主要用于AI计算。
有意思的是,如果把这段内容交给DeepSeek网页版,询问开源意义,DeepSeek回答称,可以理解为专门给高性能显卡(比如英伟达的Hopper系列GPU)设计的“加速神器”,用来提高AI处理任务的效率。
DeepSeek举例,假如开了一家快递分拣站,每天要处理不同大小的包裹,传统方法是用固定大小的筐子装,小包裹浪费空间,大包裹又得分筐装,效率很低。而FlashMLA就像一套“智能分拣系统”,能自动根据包裹大小调整筐子尺寸,让所有包裹快速、整齐地装车,既省时间又省钱。
马斯克旗下xAI的大模型Grok3则评价称,FlashMLA表明DeepSeek在AI硬件加速领域有深厚积累。MLA本身是他们的创新,而 FlashMLA则是将这种创新落地到硬件的具体实现,性能指标(3000GB/s和580TFLOPS)足以媲美业界顶尖方案(如 FlashAttention)。
Grok3 称,”想象你有个超级聪明的 AI,但它跑得不够快,因为每次处理句子时都要浪费很多时间搬数据和算复杂的数学题。FlashMLA 就像给AI加了个‘涡轮增压引擎’,专门装在英伟达的Hopper GPU上。它能让AI用更少的内存、更快的速度处理各种长短不一的句子,开源之后,AI开发会变得更快、更省钱。”
作为开源大模型,DeepSeek的火爆已经带动了开源成为如今的AI产业新趋势。
香港科技大学校董会主席、美国国家工程院外籍院士沈向洋在2025全球开发者先锋大会(GDC)上表示,尽管当前闭源的份额仍然超过开源的份额,但接下来一两年将剧烈变化,平衡开源与闭源,引领未来。“大模型时代,开源并没有像以往那么多、那么快,我想,通过上海的努力,我相信开源这件事情会越做越好。中国的团队、上海的团队一定会引领开源潮流。”
头部大厂纷纷跟进开源潮流。2月21日,据阿里巴巴通义实验室科学家黄斐介绍,到目前为止,整个通义千问(Qwen)系列模型的下载量达到了1.8亿,累计衍生模型总数达到9万个,衍生模型数已经超越Meta的Llama系列,成为了全球第一大开源模型系列。
百度宣布将在未来几个月中陆续推出文心大模型4.5系列,并于6月30日起正式开源;文心一言自4月1日起全面免费,所有PC端和APP端用户均可体验文心系列最新模型。
转载请注明来自亚星官方网-亚星开户-亚星代理,本文标题:《DeepSeek开源FlashMLA,意味着什么?》
还没有评论,来说两句吧...