IT之家5月7日消息,腾讯技术团队针对DeepSeek开源的DeepEP通信框架进行深度优化,使其在多种网络环境下均实现显著性能提升。

经测试,优化后的通信框架性能在 RoCE网络环境提升100%,IB 网络环境提升 30%,为企业开展AI大模型训练提供更高效的解决方案。

该技术方案获得了DeepSeek公开致谢,称这是一次“huge speedup”代码贡献。

IT之家注:DeepEP是一个为专家混合(MoE)和专家并行(EP)量身定制的通信库。它提供高吞吐量和低延迟的全对全GPU内核,这些内核也被称为MoE派发和组合。该库还支持低精度运算,包括FP8。

据悉,腾讯星脉网络团队在DeepEP开源后便展开技术攻关,发现两大关键瓶颈:一是对于双端口网卡带宽利用率不足,二是CPU控制面交互存在时延。

在腾讯的技术优化下,DeepEP不仅在RoCE 网络实现性能翻倍,反哺到IB(InfiniBand)网络时更使原有通信效率再提升30%。

目前,该技术已全面开源,并成功应用于腾讯混元大模型等项目的训练推理,在腾讯星脉与H20服务器构建的环境中,这套方案展现出出色的通用性。

“特别声明:以上作品内容(包括在内的视频、图片或音频)为凤凰网旗下自媒体平台“大风号”用户上传并发布,本平台仅提供信息存储空间服务。

Notice: The content above (including the videos, pictures and audios if any) is uploaded and posted by the user of Dafeng Hao, which is a social media platform and merely provides information storage space services.”