litellm.BadRequestError: OpenAIException - {"error":{"message":"请提供请求的上下文(tracei...

2025年12月09日 23:26 状态: processing

🚨 错误信息

litellm.exceptions.BadRequestError: litellm.BadRequestError: OpenAIException - {"error":{"message":"请提供请求的上下文(traceid: 22722e16fb947f18ad300f1a09d8e538)","type":"rix_api_error","param":"","code":null}} httpx.HTTPStatusError: Client error '422 Unprocessable Entity' for url 'https://www.dmxapi.cn/v1/responses' 支持/responses吗?还是只支持/chat/completions?

🤖 AI解决方案

错误翻译

原文:litellm.exceptions.BadRequestError: litellm.BadRequestError: OpenAIException - {"error":{"message":"请提供请求的上下文(traceid: 22722e16fb947f18ad300f1a09d8e538)","type":"rix_api_error","param":"","code":null}}
译文:LiteLLM错误请求错误:OpenAI异常 - 请提供请求的上下文(追踪ID:22722e16fb947f18ad300f1a09d8e538)

原因分析

该错误表明DMXAPI平台要求使用 /chat/completions 端点,但代码中尝试使用了不支持的 /responses 端点。

解决方案

将API调用从 /responses 改为 /chat/completions
# 错误的方式
response = client.post("https://www.dmxapi.cn/v1/responses", ...)

# 正确的方式
response = client.post("https://www.dmxapi.cn/v1/chat/completions", ...)

️ 预防措施

  • 查阅官方文档:在使用第三方API时,始终参考最新的官方文档确认支持的端点
  • 使用标准OpenAI格式:DMXAPI平台兼容OpenAI API,应使用标准的 /chat/completions 端点而非自定义端点