Problem in node ‘Convert to File‘ The value in "candidates[0].content.parts[0].t...
🚨 错误信息
Problem in node ‘Convert to File‘
The value in "candidates[0].content.parts[0].text" is not set
🤖 AI解决方案
Problem in node ‘Convert to File‘
The value in "candidates[0].content.parts[0].text" is not set
错误:节点“Convert to File”出现问题
“candidates[0].content.parts[0].text”中的值未设置
原因分析
DMXAPI的“Convert to File”节点期望从上游节点接收到的数据中,在candidates[0].content.parts[0].text 路径下找到文本内容,但当前接收到的数据中该路径下的值是空的(null 或 undefined)。
解决方案
请检查 DMXAPI 流程中,“Convert to File”节点 上游节点 的输出。确保上游节点成功生成了文本内容,并且该内容被正确地映射到了candidates[0].content.parts[0].text 路径。
如果上游节点是一个模型推理节点(如 LLM 调用),请确认模型返回的 content.parts[0].text 字段有值。
示例(假设上游是 LLM 调用):
确保你的 LLM 调用节点配置正确,能够返回包含文本的结构。例如,如果你的 LLM 节点是这样配置的:
{
"provider": "openai",
"model": "gpt-3.5-turbo",
"messages": [
{"role": "user", "content": "请给我一段关于编程的简短介绍。"}
],
"output_variable": "llm_response"
}
那么 llm_response 变量应该包含类似以下的结构(取决于具体模型返回):
{
"candidates": [
{
"content": {
"parts": [
{
"text": "编程是使用特定编程语言编写指令集的过程,计算机通过这些指令来执行特定任务。"
}
]
}
}
]
}
如果上游节点是自定义代码,请确保在代码中正确地生成并输出了 candidates[0].content.parts[0].text 的值。
预防措施
- 添加校验节点:在上游节点之后,添加一个“检查变量”或自定义代码节点,用于验证
candidates[0].content.parts[0].text是否存在有效值,如果不存在则进行错误处理或重试。 - 稳健的模型调用:在调用 LLM 或其他生成式模型时,对模型的输出结构进行检查,优先使用包含文本的字段,并在字段不存在时有备用方案。