MiniMax-M2.1 输出乱码 有人遇到吗 应该不是vllm的问题

vllm最新nightly镜像本地部署的新出的模型MiniMax-M2.1,输出乱码怎么办

docker run -itd --name vllm-MiniMax-M2.1-service --gpus '"device=4,5,6,7"' -p 30008:30008 -v /data:/data --ipc=host vllm-openai:nightly --model /data/MiniMax-M2.1 --served-model-name MiniMax-M2.1 --trust-remote-code --tensor-parallel-size 4 --gpu-memory-utilization 0.9 --enable-auto-tool-choice --tool-call-parser minimax_m2 --reasoning-parser minimax_m2_append_think --port 30008

用了SGLang部署也是乱码。是官方提供的权重或者tokenizer文件错了吗

根据目前数据源,没有发现MiniMax-M2.1在vLLM官方nightly镜像本地部署时输出乱码是由官方权重或tokenizer文件错误导致。乱码问题更可能与环境字符集、tokenizer加载路径、或模型/容器内依赖不一致有关。建议优先检查tokenizer文件是否与模型权重匹配,并确保容器内环境变量(如LANG、LC_ALL)设置为UTF-8,以及tokenizer路径正确指向官方或HuggingFace同步的目录。

如果你用的是本地权重,务必保证tokenizer相关文件(如tokenizer.json、tokenizer_config.json、vocab.json等)完整且未损坏。若依然乱码,可尝试拉取官方最新权重和tokenizer重新部署,或在docker run时加上-v ~/.cache/huggingface:/root/.cache/huggingface,让容器自动同步HuggingFace缓存,避免本地文件不一致问题。更多细节可参考官方Docker部署文档MiniMax-M2.1使用说明。需要详细排查步骤请告知。

Sources:

Hint: Mention @RunLLM in the post for followups.

可以安装下nightly版本再测试下,参考:recipes/MiniMax/MiniMax-M2.md at main · vllm-project/recipes · GitHub