DeepSeek 开源进度 2/5:首个用于 MoE 模型训练和推理的 EP 通信库 DeepEP
发布时间:2025-02-25 11:01:35来源:
2 月 25 日,DeepSeek 在 “开源周” 的第二天向公众开源了 DeepEP。据介绍,DeepEP 是第一个用于 MoE (混合专家) 模型训练和推理的 EP (Expert Parallelism,专家并行) 通信库,可以实现高效且优化的全对全通信,支持包括 FP8 在内的低精度运算,适配现代高性能计算需求。
同时,DeepEP 针对 NVLink 到 RDMA 的非对称带宽转发场景进行了深度优化,不仅提供了高吞吐量,还支持 SM (Streaming Multiprocessors) 数量控制,兼顾训练和推理任务的高吞吐量表现。对于延迟敏感的推理解码场景,DeepEP 还提供了纯 RDMA 的低延迟内核,支持自适应路由,能实现更灵活的 GPU 资源控制,满足不同场景需求。
(责编: admin)
版权声明:网站作为信息内容发布平台,不代表本网站立场,不承担任何经济和法律责任。文章内容如涉及侵权请联系及时删除。。