Ваша ошибка “‘NoneType’ object has no attribute ‘invoke’” возникает потому, что переменная prompt не передаётся или не инициализирована в момент вызова debug_llm. Также вы указываете неверный endpoint: для Qwen2.5-VL-7B-Instruct нужно использовать /chat/completions, а не /completions.
Что делать:
Проверьте, что prompt создаётся через get_qa_prompt() и передаётся в debug_llm и create_qa_chain.
url -X POST “http://192.168.13.140:8000/v1/completions”
-H “Content-Type: application/json”
-d ‘{
“model”: “/mnt/nfs/models/Qwen2.5-VL-7B-Instruct/”,
“prompt”: “What is the capital of France?”,
“max_tokens”: 100,
“temperature”: 0
}’
{“object”:“error”,“message”:“The model does not support Completions API”,“type”:“BadRequestError”,“param”:null,“code”:400}(vllm_env)
Модель Qwen2.5-VL-7B-Instruct не поддерживает endpoint /v1/completions, только /v1/chat/completions (документация). Для корректного запроса используйте:
curl -X POST "http://192.168.13.140:8000/v1/chat/completions" \
-H "Content-Type: application/json" \
-d '{
"model": "/mnt/nfs/models/Qwen2.5-VL-7B-Instruct/",
"messages": [
{"role": "user", "content": "What is the capital of France?"}
],
"max_tokens": 100,
"temperature": 0
}'
curl -X POST “http://192.168.13.140:8000/v1/chat/completions”
-H “Content-Type: application/json”
-d ‘{
“model”: “/mnt/nfs/models/Qwen2.5-VL-7B-Instruct/”,
“messages”: [
{“role”: “user”, “content”: “What is the capital of France?”}
],
“max_tokens”: 100,
“temperature”: 0
}’
{“object”:“error”,“message”:“The model does not support Chat Completions API”,“type”:“BadRequestError”,“param”:null,“code”:400}