litellm.BadRequestError: OpenAIException - {"error":{"message":"请提供请求的上下文(tracei...
🚨 错误信息
litellm.exceptions.BadRequestError: litellm.BadRequestError: OpenAIException - {"error":{"message":"请提供请求的上下文(traceid: 22722e16fb947f18ad300f1a09d8e538)","type":"rix_api_error","param":"","code":null}}
httpx.HTTPStatusError: Client error '422 Unprocessable Entity' for url 'https://www.dmxapi.cn/v1/responses'
支持/responses吗?还是只支持/chat/completions?
🤖 AI解决方案
错误翻译
原文:litellm.exceptions.BadRequestError: litellm.BadRequestError: OpenAIException - {"error":{"message":"请提供请求的上下文(traceid: 22722e16fb947f18ad300f1a09d8e538)","type":"rix_api_error","param":"","code":null}}
译文:LiteLLM错误请求错误:OpenAI异常 - 请提供请求的上下文(追踪ID:22722e16fb947f18ad300f1a09d8e538)
原因分析
该错误表明DMXAPI平台要求使用/chat/completions 端点,但代码中尝试使用了不支持的 /responses 端点。
解决方案
将API调用从/responses 改为 /chat/completions:
# 错误的方式
response = client.post("https://www.dmxapi.cn/v1/responses", ...)
# 正确的方式
response = client.post("https://www.dmxapi.cn/v1/chat/completions", ...)
️ 预防措施
- 查阅官方文档:在使用第三方API时,始终参考最新的官方文档确认支持的端点
- 使用标准OpenAI格式:DMXAPI平台兼容OpenAI API,应使用标准的
/chat/completions端点而非自定义端点