目前 DeepSeek 的进展如下:
持续 5 天的“开源周”已进行到第 3 天。周一开源了专为英伟达 Hopper GPU 打造的高效 MLA 解码内核 FlashMLA,已正式投产使用。周二开源了专为混合专家系统(MoE)和专家并行(EP)设计的通信库 DeepEP。周三开源了支持稠密和 MoE 模型的 FP8 GEMM(通用矩阵乘法)计算库 DeepGEMM,可为 V3/R1 的训练和推理提供强大支持。总的来说,英伟达和 DeepSeek 开源的内容都是通过对英伟达 GPU 和集群的优化,来推动 AI 模型的高效计算和部署。
华尔街分析师对 DeepSeek 的反应:展示出媲美领先 AI 产品性能的模型,但成本仅为其一小部分,在全球主要市场的 App Store 登顶。Jefferies 警告其技术可能打破资本开支狂热,Citi 对其技术突破提出质疑。高盛预测其可能改变科技巨头与初创公司的竞争格局,降低 AI 行业进入门槛。
DeepSeek 的实际使用体验:在文字能力上表现突出,尤其在中文场景中高度符合日常、写作习惯,但在专业论文总结方面稍弱。数学能力经过优化,表现不错;编程能力略逊于 GPT,据用户反馈。GRPO 算法替代传统 PPO,降低价值函数估计难度,提高语言评价场景的灵活性与训练速度。
2025-04-01