vllm-metax:0.11.0-maca.ai3.3.0.11-torch2.6-py310-ubuntu22.04-amd64 能够提供该镜像的离线包下载?
本人在公司内网开发无法docker pull拉取镜像,能否提供离线下载方式?
还有想请问一下,沐曦推理框架的vllm方式是否适配了Qwen2.5-VL或者Qwen3-VL模型?
vllm-metax:0.11.0-maca.ai3.3.0.11-torch2.6-py310-ubuntu22.04-amd64 能够提供该镜像的离线包下载?
本人在公司内网开发无法docker pull拉取镜像,能否提供离线下载方式?
还有想请问一下,沐曦推理框架的vllm方式是否适配了Qwen2.5-VL或者Qwen3-VL模型?
尊敬的开发者您好,此镜像离线包已生成,请您前往沐曦开发者社区镜像中心下载。沐曦推理框架的vllm方式已适配了Qwen2.5-VL或者Qwen3-VL模型。
huggingface上下载的Qwen3-VL官方模型可以直接在沐曦卡上通过vllm运行吗,沐曦GPU兼容吗
huggingface上下载的Qwen3-VL官方模型可以直接在沐曦卡上通过vllm运行吗,沐曦GPU兼容吗
尊敬的开发者您好,huggingface上下载的Qwen3-VL官方模型可以直接在沐曦卡上通过vllm metax运行,沐曦GPU兼容