Problem in node ‘Convert to File‘ The value in "candidates[0].content.parts[0].t...

2025年09月10日 13:48 响应: 2.50秒 状态: success

🚨 错误信息

Problem in node ‘Convert to File‘ The value in "candidates[0].content.parts[0].text" is not set

🤖 AI解决方案

Problem in node ‘Convert to File‘
The value in "candidates[0].content.parts[0].text" is not set

错误:节点“Convert to File”出现问题
“candidates[0].content.parts[0].text”中的值未设置

原因分析

DMXAPI的“Convert to File”节点期望从上游节点接收到的数据中,在 candidates[0].content.parts[0].text 路径下找到文本内容,但当前接收到的数据中该路径下的值是空的(nullundefined)。

解决方案

请检查 DMXAPI 流程中,“Convert to File”节点 上游节点 的输出。确保上游节点成功生成了文本内容,并且该内容被正确地映射到了 candidates[0].content.parts[0].text 路径。

如果上游节点是一个模型推理节点(如 LLM 调用),请确认模型返回的 content.parts[0].text 字段有值。

示例(假设上游是 LLM 调用):

确保你的 LLM 调用节点配置正确,能够返回包含文本的结构。例如,如果你的 LLM 节点是这样配置的:

{
  "provider": "openai",
  "model": "gpt-3.5-turbo",
  "messages": [
    {"role": "user", "content": "请给我一段关于编程的简短介绍。"}
  ],
  "output_variable": "llm_response"
}

那么 llm_response 变量应该包含类似以下的结构(取决于具体模型返回):

{
  "candidates": [
    {
      "content": {
        "parts": [
          {
            "text": "编程是使用特定编程语言编写指令集的过程,计算机通过这些指令来执行特定任务。"
          }
        ]
      }
    }
  ]
}

如果上游节点是自定义代码,请确保在代码中正确地生成并输出了 candidates[0].content.parts[0].text 的值。

预防措施

  • 添加校验节点:在上游节点之后,添加一个“检查变量”或自定义代码节点,用于验证 candidates[0].content.parts[0].text 是否存在有效值,如果不存在则进行错误处理或重试。
  • 稳健的模型调用:在调用 LLM 或其他生成式模型时,对模型的输出结构进行检查,优先使用包含文本的字段,并在字段不存在时有备用方案。