加载中…
No Results
  • 开始使用
    • 欢迎使用GoInsight.AI
    • 快速入门
  • 知识百科
    • 关键概念
    • 知识库
    • LLM 选择指南
    • 数据安全
  • 轻聊机器人
    • 构建轻聊机器人
  • Insight Chat
    • 认识&了解如何使用Insight Chat
  • InsightFlow
    • InsightFlow介绍
    • InsightFlow类型
    • 服务与工具
      • 工具
      • 服务
      • 代理策略
    • 节点
      • 开始节点
      • 回复输出节点
      • 大模型节点
      • 知识库检索节点
      • 文档读取节点
      • 文档写入节点
      • HTTP 请求节点
      • 知识聚焦大模型节点
      • 代理节点
      • 进度更新节点
      • 工具调用节点
      • 条件跳转节点
      • 自然语义分类器节点
      • 分支聚合器节点
      • 多分支选择节点
      • 循环节点
      • 自动继续节点
      • 文本模板节点
      • 代码执行
      • JSON 变量提取器节点
      • 自然语义变量提取器节点
      • 变量赋值节点
      • 结束节点
      • 节点错误处理策略
    • 发布
      • 发布对话式工作流
      • 发布服务式工作流
      • 创建您的第一个工作流
    • 团队管理
      • 访问控制
      • 使用详情
首页 > 使用文档 > InsightFlow > 节点

大模型节点

定义

LLM节点是GoInsight.AI工作流的核心组件,旨在处理复杂的文本和对话任务。它利用输入参数和提示词调用大语言模型(LLMs),执行内容生成、翻译、代码编写和基于知识的问答等任务。

在对话式工作流中,该节点支持会话记忆;在服务式工作流中,则提供灵活的调用模型,以满足各种业务需求的AI解决方案。通过选择合适的模型并优化提示词,您可以在对话模式和服务模式下构建可靠且高效的解决方案。

LLM节点参数:

LLM Node

如何配置

1. 模型

GoInsight.AI与多个领先的大模型集成,包括:

  • Microsoft Azure GPT系列(GPT-4o mini, GPT-4o, o1, o3 mini)
  • OpenAI的GPT系列
  • Claude Sonnet 3.7系列
  • Gemini系列
  • DeepSeek系列

选择模型时,请根据具体场景和任务类型,考虑安全性、推理能力、成本、响应速度和上下文窗口等关键因素。对于企业级解决方案,推荐使用Microsoft Azure GPT系列,因为它拥有强大的全球合规认证,可确保高标准的安全性和隐私性。

model in LLM node

2. 模型温度

温度参数决定了生成文本的多样性。值越高,输出越具创意和多样性;值越低,则越可预测和逻辑。对于初学者,建议从默认的中等值开始。

配置选项 状态 描述
温度开关 关闭 模型的输出遵循固定的概率分布,结果更稳定和确定。这适用于需要高准确性和一致性的任务,例如参数提取和事实查询。
温度开关 开启 允许控制输出的多样性和随机性,因为模型的概率分布取决于所选温度值。
温度值 较高(接近1) 生成更具多样性和创意的内容,但准确性和一致性可能降低。适合头脑风暴或开放性任务。
温度值 较低(接近0) 模型输出分歧较少,生成更专注和可预测的结果,随机性有限。适用于需要精确和稳定输出的任务,例如数据提取。

4. 提示词编写器

LLM节点具有交互式的“提示词编排”部分,您可以在其中提供和编辑多段基于角色的指令。该部分包含多个组件,包括:

  • 系统:定义模型的角色、风格和行为限制。例如,“你是一名法律顾问,请以简洁专业的语气回复。”(对于简单任务,所有提示词可直接写入系统框中。)
  • 用户:代表用户的输入,例如对模型的提问或请求。
  • 助理:在这里,您可以为模型提供答案示例,或存储您认为模型回答得很好的先前响应,以便在多轮对话中保持优质回答。

在提示词编辑器中:

  • 使用 / 或 { 可快速调出变量插入菜单,您可以从上游节点或特殊变量块中选择变量。
    system prompt setting
  • 如果您缺乏灵感,也可以使用“AI写作”(AI辅助提示词编写)快速生成提示词,然后根据需要进行修改。
  • prompt writing assistant

5. 记忆(在对话式工作流中启用)

当记忆功能启用时,与LLM模型的每次交互都包含会话历史。这使得模型能够更好地跟踪和理解用户意图及上下文,从而生成更自然、连贯的响应。

历史记录:模型在同一节点内最多可保留50条会话记录,该限制可根据需要从1调整到50。

记忆范围:进一步分为两种记忆类型:

  • 会话记忆:记录每轮对话的完整输入/输出对。
  • 节点记忆:保留当前LLM节点的输出,非常适合多智能体交互。

使用选项:用户可在“内置”和“变量”模式之间进行选择。

  • 内置:系统会自动将最新的用户输入和相关上下文纳入提示词。
  • 变量:您可以手动将过去的对话插入提示词中,因此适用于需要更精确控制的场景。

6. 输出变量

LLM节点的输出是其生成的文本内容。理论上,您还可以通过适当的提示词指示模型以不同格式生成输出,例如Markdown或JSON。

常见案例场景

LLM节点在对话模式和服务模式下均作为核心组件。它利用大语言模型的能力处理涉及对话、生成、分类和处理的任务。通过适当的提示词,它可以在工作流的不同阶段处理多种任务。

  • 文本处理
    • 它作为一个节点,根据给定主题和关键词创建文本内容(文章、摘要)。
  • 内容分类
    • 在邮件批处理过程中,它可自动将邮件分类为不同类型,例如询问、投诉或垃圾邮件。
  • 意图识别
    • 在客户服务对话中使用时,它能识别用户意图并将其路由到适当的下一个流程,确保速度和准确性。
  • 代码生成
    • 它展现出色的智能,能够根据用户需求生成特定的业务逻辑代码或测试用例。
  • 情感分析
    • 它可以分析角色扮演场景中的角色情感,并提出适合上下文的解决方案。
  • RAG(检索增强生成)
    • 在知识库问答场景中,它结合知识库数据与用户查询,提供精确且相关的答案。

简单案例:单节点调试

如果AI的响应不符合您的期望,请在单个LLM节点中多次使用“提示词编辑器”以微调其输出。请参考以下示例提示词获取实施指导:

an example of LLM node

注意事项

  1. 避免在多个部分中插入相同的变量(例如,将变量A同时插入到系统和用户框中),因为这可能会导致模型混淆。
  2. 大语言模型有输入令牌的限制。建议避免一次性插入过多内容。对于较长的输入,可使用知识库功能有效管理大量信息。
  3. 对于具有复杂步骤的高复杂度任务,请避免使用单个大模型处理所有内容。相反,建议为每个步骤使用单独的LLM节点,以提高输出准确性并减少错误。
  4. 大模型有时会产生不一致的输出。如果结果不理想,进行多次迭代或优化提示词可能会带来更好的结果。
更新于: Aug 26, 2025
上一篇 回复输出节点
下一篇 知识库检索节点
本文内容
  • 定义
  • LLM节点参数
  • 如何配置
    • 模型
    • 模型温度
    • 提示词生成器
    • 记忆(在交互式工作流程中启用)
    • 输出变量
  • 常见案例场景
  • 简单案例展示:单节点调试
  • 注意事项
加载中…
No Results