网站维护兼职网站整合营销建设

张小明 2026/1/2 22:40:41
网站维护兼职,网站整合营销建设,厂房建设公司哪家好,石家庄建设工程信息网本文全面介绍了AI Agent的五大架构类型(反应型、审议式、混合、神经符号和认知)及LangGraph中的三大设计模式(多Agent系统、规划Agent、反思批判)。详细阐述了各架构特点、应用场景和优缺点#xff0c;从基础到高级展示了AI Agent构建方法#xff0c;强调选择合适架构的重要性…本文全面介绍了AI Agent的五大架构类型(反应型、审议式、混合、神经符号和认知)及LangGraph中的三大设计模式(多Agent系统、规划Agent、反思批判)。详细阐述了各架构特点、应用场景和优缺点从基础到高级展示了AI Agent构建方法强调选择合适架构的重要性提供丰富代码示例和实现思路。一、引言智能体架构是定义AI agent组件如何组织和交互的蓝图使智能体能够感知环境、进行推理并采取行动。本质上它就像智能体的数字大脑——集成了“眼睛”传感器、“大脑”决策逻辑和“双手”执行器来处理信息和执行动作。选择合适的架构对于构建高效的AI agent至关重要。架构决定了agent的响应速度、处理复杂性的能力、学习适应性和资源需求。例如一个简单的基于反射的代理可能擅长实时反应但在长期规划方面表现不佳而一个深思熟虑的代理则可以处理复杂的目标但计算成本更高。了解这些权衡取舍有助于工程师将架构与应用领域相匹配从而实现最佳性能和可靠性。二、Agent 架构智能体架构大致可分为以下几类Reactive 反应型Deliberative 审议式Hybrid 混合Neural-Symbolic 神经符号Cognitive 认知的2.1 Reactive 架构最直接的 AI agent设计模式称为 ReAct 。这种设计模式 大型语言模型LLM 首先分析当前情况并确定下一步行动。然后该行动在环境中执行并生成观察结果作为反馈。LLM 处理该观察结果重新评估下一步行动选择另一个行动并重复此循环直到任务完成。2.1.1 用例ReAct架构非常适合需要瞬间决策且响应可预测、定义明确的领域。经典的例子包括机器人和游戏例如机器人吸尘器或无人机一旦传感器检测到障碍物就会自动避开又如电子游戏中的非玩家角色会对玩家的操作做出预先设定的即时反应例如敌方守卫一旦进入玩家视野就会立即攻击。在工业环境中简单的监控agent会在传感器超出范围时触发警报或关闭设备。这些agent在实时控制系统中表现出色但由于缺乏全局规划能力它们通常用于相对简单或限制严格的任务 在这些任务中所有情况的规则都可以预先定义。对于简单的任务可以使用纯代码轻松构建 React 设计模式而无需使用框架。首先我们需要一个大型语言模型作为智能体的大脑from dotenv import load_dotenv from openai import OpenAI _ load_dotenv() client OpenAI()然后我们可以将简单的代理构建成一个类以便返回我们的消息class Agent: def __init__(self, system): self.system system self.messages [] if self.system: self.messages.append({role: system, content: system}) def __call__(self, message): self.messages.append({role: user, content: message}) result self.execute() self.messages.append({role: assistant, content: result}) return result def execute(self): completion client.chat.completions.create( modelgpt-4o, temperature0, messagesself.messages) return completion.choices[0].message.content我们需要一个系统提示指示我们的agent使用另外两个工具完成任务一个用于数学计算另一个用于找出给定犬种的平均体重。import openai import re import httpx import os prompt You run in a loop of Thought, Action, PAUSE, Observation. At the end of the loop you output an Answer Use Thought to describe your thoughts about the question you have been asked. Use Action to run one of the actions available to you - then return PAUSE. Observation will be the result of running those actions. Your available actions are: calculate: e.g. calculate: 4 * 7 / 3 Runs a calculation and returns the number - uses Python so be sure to use floating point syntax if necessary average_dog_weight: e.g. average_dog_weight: Collie returns average weight of a dog when given the breed Example session: Question: How much does a Bulldog weigh? Thought: I should look the dogs weight using average_dog_weight Action: average_dog_weight: Bulldog PAUSE You will be called again with this: Observation: A Bulldog weights 51 lbs You then output: Answer: A bulldog weights 51 lbs .strip() def calculate(what): return eval(what) def average_dog_weight(name): if name in Scottish Terrier: return(Scottish Terriers average 20 lbs) elif name in Border Collie: return(a Border Collies average weight is 37 lbs) elif name in Toy Poodle: return(a toy poodles average weight is 7 lbs) else: return(An average dog weights 50 lbs) known_actions { calculate: calculate, average_dog_weight: average_dog_weight }prompt You run in a loop of Thought, Action, PAUSE, Observation. At the end of the loop you output an Answer Use Thought to describe your thoughts about the question you have been asked. Use Action to run one of the actions available to you - then return PAUSE. Observation will be the result of running those actions.现在我们可以通过循环分多个步骤运行agent程序abot Agent(prompt) def query(question, max_turns5): i 0 bot Agent(prompt) next_prompt question while i max_turns: i 1 result bot(next_prompt) print(result) actions [ action_re.match(a) for a in result.split(\n) if action_re.match(a) ] if actions: # There is an action to run action, action_input actions[0].groups() if action not in known_actions: raise Exception(Unknown action: {}: {}.format(action, action_input)) print( -- running {} {}.format(action, action_input)) observation known_actions[action](action_input) print(Observation:, observation) next_prompt Observation: {}.format(observation) else: return question I have 2 dogs, a border collie and a scottish terrier. \ What is their combined weight query(question)运行结果如下所示Thought: I need to find the average weight of a Border Collie and a Scottish Terrier, then add them together to get the combined weight. Action: average_dog_weight: Border Collie PAUSE -- running average_dog_weight Border Collie Observation: a Border Collies average weight is 37 lbs Action: average_dog_weight: Scottish Terrier PAUSE -- running average_dog_weight Scottish Terrier Observation: Scottish Terriers average 20 lbs Thought: Now that I have the average weights of both dogs, I can calculate their combined weight by adding them together. Action: calculate: 37 20 PAUSE -- running calculate 37 20 Observation: 57 Answer: The combined weight of a Border Collie and a Scottish Terrier is 57 lbst如上所示该agent使用两种不同的工具成功确定了Border Collies 和Scottish Terriers的平均体重然后将结果相加。2.1.2 优势与局限性ReAct架构的主要优势在于速度 。由于无需复杂的推理开销决策可以在恒定时间内做出这对于实时机器人或高频交易等毫秒级精度至关重要的领域来说非常理想。ReAct agent的设计和验证也相对简单因为它们的行为是由规则明确定义的。缺点是由于它们不会学习或计划因此它们的适应能力有限 它们无法应对不可预见的情况也无法解决需要按顺序采取行动才能达到目标的问题。它们也往往目光短浅只注重优化即时响应而忽略长远后果如果反应式机器人的规则缺乏策略逻辑它可能会在一个狭小的循环中无休止地徘徊。这些局限性促使人们开发出更先进的架构这些架构融合了内部状态和推理功能。研究表明不同的设计模式更适合不同的任务。与其从零开始构建这些架构我们可以利用现有的、经过充分测试的、针对特定问题量身定制的解决方案。例如 LangGraph 的文档中就提供了一系列多智能体架构。在本文中我们将探讨这些架构以及如何将它们应用于我们的用例。2.2 Deliberative 架构Deliberative智能体是基于模型、目标驱动的智能体。与立即做出反应的ReAct智能体不同Deliberative智能体会提前思考 利用内部模型评估多种可能的行动方案并选择实现目标的最佳方案。Sense → Model → Plan → Act感知 → 模型 → 计划 → 行动感知 接收来自环境的新信息模型 更新内部世界模型例如符号状态、语义地图规划 制定可能的计划并模拟/评估其结果行动 执行最佳计划。这种方法就像国际象棋人工智能提前计划好几步棋而不是每一步都做出反应一样。示例伪代码 一个简化的deliberative代理循环受 BDI 原则启发可能如下所示# Pseudocode for a deliberative agent with goal-oriented planning initialize_state() while True: perceive_environment(state) options generate_options(state) # possible plans or actions best_option evaluate_options(options) # deliberation: select best plan commit_to_plan(best_option, state) # update intentions execute_next_action(best_option) if goal_achieved(state): break在这个循环中 generate_options 会根据当前状态和目标生成可能的操作或计划 evaluate_options 会进行推理或规划例如模拟结果或使用启发式方法来选择最佳计划然后智能体逐步执行操作并在每次执行后根据需要重新评估。这体现了深思熟虑的智能体如何考虑未来后果并优化长期目标。例如在路径规划智能体中 generate_options 可能会生成多条路径而 evaluate_options 会选择最短且安全的路径。2.3 混合架构混合agent架构结合了reactive和deliberative系统在动态环境中实现速度和智能的平衡。Reactive层对感觉输入做出即时反应例如避开障碍物Deliberative层使用内部模型执行目标驱动的规划例如路线规划。这些层级协同运作 通常并行运作以平衡快速反应与长期战略。该架构通常采用分层结构底部 Reactive本能反应中间部分可选 排序/协调顶部 Deliberative目标推理和计划协调机制 如监督者或优先级规则决定哪一层的输出优先。percept sense_environment() if is_urgent(percept): action reactive_module(percept) # Quick reflex else: update(world_model, percept) action deliberative_planner(world_model, current_goal) execute(action)2.4 Neural-Symbolic 架构神经符号或神经符号 架构将神经网络 用于从数据中学习与符号人工智能 用于基于规则的推理相结合使智能体能够感知复杂的环境并对其进行推理 。神经网络 擅长模式识别 例如图像、语音符号系统 擅长逻辑、推理和可解释性 综合目标 利用神经感知和符号理解做出智能、可解释的决策。主要有两种整合策略顺序式 神经模块处理原始输入例如检测物体符号模块对解释后的输出进行推理并行 神经模块和符号模块同时工作 决策模块将两者的输出融合在一起。伪代码示例percept get_sensor_data() nn_insights neural_module.predict(percept) # Perception (e.g., detect anomaly) sym_facts symbolic_module.update(percept) # Translate data to logical facts sym_conclusions symbolic_module.infer(sym_facts) # Apply domain knowledge decision policy_module.decide(nn_insights, sym_conclusions) execute(decision)2.5 Cognitive 架构认知架构是综合框架旨在通过将感知、记忆、推理和学习整合到一个统一的智能体系统中来模拟一般的人类智能。目标是构建能够像人类一样学习、规划、解决问题和适应环境的智能体。SOAR 架构20 世纪 80 年代开发用于一般智能行为工作记忆 保存当前情况生产记忆 存储“如果……那么……”规则采用通用子目标设定法 ——遇到困难时设定子目标。学习 采用“ 组块化 ”——将经验转化为新规则。应用案例人工智能飞行员、人形机器人、决策代理。ACT-R 架构源于认知心理学由专门的模块 例如视觉、运动、记忆组成每个模块都使用自己的缓冲区作为临时工作内存生产规则管理缓冲区之间的数据流结合符号推理和亚符号机制如记忆激活。共同特征模块化设计 感知模块、记忆模块、行动模块多内存系统 简化的认知循环percept perceive_environment() update_working_memory(percept) action cognitive_reasoner.decide(working_memory) execute(action)SOAR 和 ACT-R 等认知架构提供了一种整体智能模型整合了感知、记忆、决策和学习。它们不仅用于构建智能体还能帮助我们理解人类思维的运作方式。这些系统非常适合那些需要随着时间推移不断学习 、 处理各种任务并像人类一样进行推理的智能体。三、LangGraph 中的agent设计模式智能体架构和智能体设计模式密切相关但它们在AI agent开发中处于不同的抽象层次。智能体架构指的是定义智能体构建和运行方式的结构框架或蓝图。它关注核心组件及其组织方式——可以将其视为智能体的“骨架”。架构详细说明了智能体如何感知环境、处理信息、做出决策以及采取行动。架构通常更侧重于系统的构建方式 ——底层机制以及数据或控制的流动。智能体设计模式是更高层次的、可重用的策略或模板用于解决基于智能体的系统中的特定问题。它们不太关注智能体内部的具体细节而更多地关注如何以一种能够适应不同情境的方式引导行为或交互。你可以把它们想象成实现特定结果的“配方”。设计模式关注 “是什么” 和 “为什么” ——你希望agent展现出什么样的行为或能力以及为什么它在给定的场景中是有效的。LangGraph 将这些Agent架构归纳为以下三大类3.1 Multi-Agent 系统Network[1]: 使两个或多个agent能够协作完成任务Supervisor[2]: 使用 LLM 来协调任务并将其委派给各个agentHierarchical Teams[3]: 协调嵌套的agent团队来解决问题3.2 Planning AgentsPlan-and-Execute[4]: 实施一个基本的计划与执行代理Reasoning without Observation[5]: 通过将观察结果保存为变量来减少重新规划LLMCompiler[6]: 从规划器流式传输并立即执行 DAG 任务3.3 Reflection CritiqueBasic Reflection: 提示智能体反思并修改其输出Reflexion: 批判性地分析缺失和多余的细节以指导后续步骤Tree of Thoughts: 使用评分树搜索问题的候选解决方案Language Agent Tree Search: 利用反射和奖励机制驱动蒙特卡洛树搜索算法搜索多个代理Self-Discover Agent: 分析能够了解自身能力的智能体。下面我们来深入了解一下Agentic设计模式。四、Multi-agent 系统4.1 Multi-agent Network解决复杂任务的一种方法是采用分而治之的策略。利用路由机制可以将任务分配给专门负责该任务的代理。这种架构被称为多智能体网络架构。4.2 Multi-agent Supervisor这种架构与网络架构非常相似区别在于它使用一个主管Agent来协调不同的Agent而不是路由器。4.3 Hierarchical Agent Teams层级式团队架构源于这样一个理念“如果单个智能体不足以完成特定任务该怎么办” 在这种情况下不再是由一个主管智能体协调多个智能体而是由一个主管智能体协调多个由多个智能体组成的团队。五、Planning Agents5.1 Plan-and-execute在这种架构中首先智能体根据给定的任务顺序生成子任务。然后单任务专业化智能体解决这些子任务如果任务完成则将结果发送回规划智能体。规划智能体根据结果制定不同的计划。如果任务完成规划智能体会向用户发出响应。5.2 Reasoning without observation在 ReWOO 中Xu 等人提出了一种智能体该智能体集成了多步骤规划器和变量替换机制以优化工具的使用。这种方法与plan-and-execute架构非常相似。然而与传统模型不同的是ReWOO 架构在每个动作之后并不包含观察步骤。相反整个计划在生成之初就已制定完成并且保持不变不受任何后续观察的影响。规划智能体构建一个包含子任务的计划来解决该任务而worker智能体只需完成这些子任务然后响应用户。5.3 LLMCompilerLLMCompiler 是一种agent架构旨在通过在有向无环图 (DAG) 内执行预先加载的任务来加速agent任务的执行。它还通过减少对 LLM 的调用次数来节省冗余令牌的使用成本。以下是其计算图的概述它由 3 个主要部分组成Planner: 流式传输任务的 DAGTask Fetching Unit: 负责调度和执行可执行的任务Joiner: Responds to the user or triggers a second plan六、Reflection Critique6.1 Basic ReflectionReflection agents促使LLM反思其过往行为从而不断学习和改进。该架构包含两个agents生成器和评论者。最简单的例子是作者和评论者。作者根据用户请求撰写文本评论者审阅文本然后将评论反馈给作者。此循环持续进行直至达到预设的迭代次数。6.2 ReflexionShinn 等人提出的 Reflexion 架构旨在通过语言反馈和自我反思进行学习。该智能体会对其任务响应进行明确的批判性分析以生成更高质量的最终响应但代价是执行时间更长。与传统的反思架构不同Reflexion 智能体还包含工具执行功能。6.3 Tree of Thoughts由 Yao 等人提出的“思维树”ToT是一种通用的 LLM 代理搜索算法它结合了反思/评估和简单搜索在本例中是 BFS不过如果你愿意也可以应用 DFS 或其他算法。它包含三个主要步骤展开生成一个或多个问题的候选解决方案评分衡量回答的质量筛选保留前 K 个最佳候选者如果找不到解决方案或者解决方案质量不足则返回“展开”。6.4 Language Agent Tree SearchZhou 等人提出的Language Agent Tree Search (LATS)是一种通用的 LLM agent搜索算法它结合了反思/评估和搜索特别是蒙特卡洛树搜索与 ReACT、Reflexion 或 Tree of Thoughts 等类似技术相比能够实现更好的整体任务性能。它包含四个主要步骤Select: 根据步骤2的综合奖励选择最佳的下一步行动。要么做出响应如果找到解决方案或达到最大搜索深度要么继续搜索Expand and simulate: 选择 5 个“最佳”潜在行动并并行执行Reflect Evaluate: 观察这些行动的结果并根据反思以及可能的外部反馈对决策进行评分Backpropagate: 根据结果更新根轨迹的分数。6.5 Self-Discover AgentSelf-discover有助于大型语言模型 (LLM) 找到思考和解决棘手问题的最佳方法。首先它通过选择和改变基本推理步骤为每个问题找到一个独特的解决方案然后它利用这个计划逐步解决问题。这样LLM 使用不同的推理工具并根据问题进行调整从而获得比仅使用一种方法更有效的解决方案。自我发现法与其他规划方法不同之处在于它能自动为每个任务生成独特的推理策略。它的独特之处在于推理模块它使用基本的推理步骤并按特定顺序将它们组合在一起无需人工干预它能够自行制定这些策略无需人工标记任务适应任务它能找到解决每个问题的最佳方法就像人类制定计划一样可迁移性它所创建的推理策略可以被不同类型的语言模型所使用。简而言之自我发现的独特之处在于它结合了不同的推理方法无需具体的任务说明即可制定计划。七、结论在本篇博客中我们探讨了智能体架构的演变从传统的ReAct和审慎式模型到更先进的混合式、神经符号式和认知式系统。随后我们利用 LangGraph 将这些基础概念与现代实现相结合展示了强大的智能体设计模式例如规划、协作、反思和批判。随着我们不断构建日益智能和自主的系统理解和应用这些架构原则将是解锁可扩展、模块化和目标驱动型人工智能解决方案的关键。人工智能的未来不在于孤立的智能而在于协调一致、善于反思且目标明确的智能体共同协作解决复杂任务。如何学习大模型 AI 由于新岗位的生产效率要优于被取代岗位的生产效率所以实际上整个社会的生产效率是提升的。但是具体到个人只能说是“最先掌握AI的人将会比较晚掌握AI的人有竞争优势”。这句话放在计算机、互联网、移动互联网的开局时期都是一样的道理。我在一线科技企业深耕十二载见证过太多因技术卡位而跃迁的案例。那些率先拥抱 AI 的同事早已在效率与薪资上形成代际优势我意识到有很多经验和知识值得分享给大家也可以通过我们的能力和经验解答大家在大模型的学习中的很多困惑。我们整理出这套AI 大模型突围资料包✅ 从零到一的 AI 学习路径图✅ 大模型调优实战手册附医疗/金融等大厂真实案例✅ 百度/阿里专家闭门录播课✅ 大模型当下最新行业报告✅ 真实大厂面试真题✅ 2025 最新岗位需求图谱所有资料 ⚡️ 朋友们如果有需要《AI大模型入门进阶学习资源包》下方扫码获取~① 全套AI大模型应用开发视频教程包含提示工程、RAG、LangChain、Agent、模型微调与部署、DeepSeek等技术点② 大模型系统化学习路线作为学习AI大模型技术的新手方向至关重要。 正确的学习路线可以为你节省时间少走弯路方向不对努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划带你从零基础入门到精通③ 大模型学习书籍文档学习AI大模型离不开书籍文档我精选了一系列大模型技术的书籍和学习文档电子版它们由领域内的顶尖专家撰写内容全面、深入、详尽为你学习大模型提供坚实的理论基础。④ AI大模型最新行业报告2025最新行业报告针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估以了解哪些行业更适合引入大模型的技术和应用以及在哪些方面可以发挥大模型的优势。⑤ 大模型项目实战配套源码学以致用在项目实战中检验和巩固你所学到的知识同时为你找工作就业和职业发展打下坚实的基础。⑥ 大模型大厂面试真题面试不仅是技术的较量更需要充分的准备。在你已经掌握了大模型技术之后就需要开始准备面试我精心整理了一份大模型面试题库涵盖当前面试中可能遇到的各种技术问题让你在面试中游刃有余。以上资料如何领取为什么大家都在学大模型最近科技巨头英特尔宣布裁员2万人传统岗位不断缩减但AI相关技术岗疯狂扩招有3-5年经验大厂薪资就能给到50K*20薪不出1年“有AI项目经验”将成为投递简历的门槛。风口之下与其像“温水煮青蛙”一样坐等被行业淘汰不如先人一步掌握AI大模型原理应用技术项目实操经验“顺风”翻盘这些资料真的有用吗这份资料由我和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理现任上海殷泊信息科技CEO其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证服务航天科工、国家电网等1000企业以第一作者在IEEE Transactions发表论文50篇获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。资料内容涵盖了从入门到进阶的各类视频教程和实战项目无论你是小白还是有些技术基础的技术人员这份资料都绝对能帮助你提升薪资待遇转行大模型岗位。以上全套大模型资料如何领取
版权声明:本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!

微网站免费建站系统建设电子商务网站的步骤

去年春天在阳台种了株茉莉,刚栽下时总忍不住扒开土壤看根系,隔两天就浇一次水,盼着它早日抽芽开花。可没过多久,新叶就开始发黄卷曲,连原本饱满的花苞也蔫了大半。园艺师朋友来看后笑着说:“你太急了&#…

张小明 2025/12/30 18:21:59 网站建设

个人主页网站应该怎样做网站开发的一般过程

XXPermissions框架架构深度剖析:从设计哲学到工程实践 【免费下载链接】XXPermissions Android 权限请求框架,已适配 Android 14 项目地址: https://gitcode.com/GitHub_Trending/xx/XXPermissions 技术痛点与架构演进背景 在Android生态系统中&…

张小明 2026/1/1 6:58:10 网站建设

织梦网站数据库备份文件夹报名网站建设费用价格

智能代理驱动的自动化工具:从数据提取到业务流程重构 【免费下载链接】skyvern 项目地址: https://gitcode.com/GitHub_Trending/sk/skyvern 你是否曾经为了一个简单的数据抓取任务,不得不编写数百行爬虫代码,结果网站前端一更新&…

张小明 2025/12/31 4:55:05 网站建设

做影视会员网站超级排版器wordpress

Pod 资源限制与调度优化:提升集群性能的关键 关键词:Pod、资源限制、调度优化、集群性能、Kubernetes 摘要:本文围绕 Pod 资源限制与调度优化展开,深入探讨了其对于提升集群性能的重要性。首先介绍了相关背景知识,包括目的范围、预期读者等。接着详细阐述了 Pod 资源限制和…

张小明 2025/12/31 4:55:05 网站建设

最优惠的建设网站建设当今做哪些网站能致富

深入了解fwknop:配置、数据包格式与部署实践 1. fwknop配置变量详解 fwknop有多个重要的配置变量,这些变量决定了其功能和行为。以下是一些关键配置变量的介绍: - REQUIRE_SOURCE_ADDRESS :该变量要求所有SPA数据包的加密负载中包含要通过iptables获得访问权限的IP地址…

张小明 2025/12/31 4:55:06 网站建设

网站建设是固定资产嘛旅游网站建设成本核算

3步轻松搞定:VobSub字幕转换SRT的实用指南 【免费下载链接】VobSub2SRT Converts VobSub subtitles (.idx/.srt format) into .srt subtitles. 项目地址: https://gitcode.com/gh_mirrors/vo/VobSub2SRT 你是否曾经遇到过这样的场景?下载了一部精…

张小明 2025/12/31 4:55:08 网站建设