3. 已知问题和使用限制
模块 |
问题和限制说明 |
|---|---|
Paddle-maca |
个别模型偶现训练报错 |
个别模型存在loss为NaN及loss不收敛问题 |
|
vLLM |
部分DeepSeek模型、部分Qwen3模型的个别测试,性能有稍微下降 |
曦云C550 OAM平台的个别测试,性能低于曦云C500平台 |
|
N260部分模型个别测试,性能低于预期值 |
|
部分模型精度数据有波动 |
|
glm4v_9b模型需要用V0模式获取性能数据,增加环境变量 |
|
在Arm平台获取性能数据,增加环境变量 |
|
DeepSeek-V2-236B、DeepSeek-V3-BF16_W8A8、DeepSeek-V3-BF16、模型获取性能数据时,
需要增加环境变量 |
|
modelzoo.llm.ppl |
baichuan2-13B tps在八卡环境上需要加临时环境变量,四卡环境正常 |
modelzoo.cnn.inference |
部分模型8卡性能偏低 |
ColossalAI |
如果出现OOM:
|
BitsAndBytes |
部分矩阵性能较低 |
个别矩阵性能不稳定 |
|
modelzoo.cnn.training |
GPU占用率低时受到其他硬件因素影响较大,在不同机器测试时易出现性能波动 |
个别对CPU资源敏感的模型,容易出现性能波动 |
|
Pytorch训练多VF场景下偶发hang |
|
Pytorch训练学习率策略,推荐使用 |
|
部分模型在不同 torch 版本性能存在差异 |
|
个别模型多卡对单卡性能提升的线性度不足 |
|
CenterNet模型FP32精度训练时,设置特定环境变量时可能导致精度问题 |
|
centernet_R18和Retinanet模型训练时,存在amp精度loss为NaN的情况 |
|
ssd模型多卡训练偶发loss为NaN |
|
Deeplabv3模型FP32精度单卡训练时,需要设置新的环境变量以避免loss为NaN |
|
TF32精度训练时,设置 |
|
部分模型性能有轻微下降 |
|
TensorFlow2 |
keras部分模型训练性能、精度偏低 |
keras部分模型训练性能、精度不稳定 |
|
facenet模型训练性能偏低 |
|
facenet模型在Arm环境中训练存在依赖安装异常的情况 |
|
modelzoo.llm.transformers |
部分模型个别测试,性能有下降 |
XTuner |
双机mixtral-8*7b训练偶现显存不足异常退出,配置可以改为 |
如需解决 XTuner 源码安装相关问题,请联系技术支持工程师获取详细协助 |
|
Megatron-LM |
多机模型运行遇到
说明:此问题属于PyTorch原生问题https://pytorch.org/docs/stable/distributed.html#common-environment-variables |
C588 megatron所有模型需增删改如下环境变量:
|
|
C588 不支持SDMA, qwen3_32b_16gpu模型需去掉 pretrain 脚本中的 |
|
C588 llama3_70b_32gpu需用2机16gpu运行模型,不支持4机 |
|
VeRL |
对于5.13以下的内核版本,无root权限的普通用户, TTM对xtt有不超过系统内存1/2的限制。 可通过 受此限制,无root权限的普通用户使用超过1/2的系统内存时,使用smi工具查询gpu usage可能会显示N/A |
LMDeploy |
不支持LMDeploy的兼容适配 |
SGLang |
DeepSeek-R1 W8A8个别测试性能会有下降,若出现hang可使用如下环境变量重新启动,但性能会有一定程度下降:
|
Qwen3-30B-A3B BF16/W8A8精度,C500性能较C550有下降 |
|
Kimi-K2模型偶现启动失败 |
|
Arm环境多机模型启动失败 |
|
如果在Arm或海光CPU上遇到性能下降较多,可以尝试使用环境变量 |
|
Deepspeed |
C86上Qwen2.5-14B Lora训练报错 |
Internlm |
环境内MXMACA版本为2.29.0.x时需要设置 |