网站关闭流程,seo智能优化软件,网站建设招聘要求,郑州专业做淘宝网站之前写过一篇关于《[从框架到智能体#xff0c;一文看懂LangChain五兄弟的秘密]》文章#xff0c;这里先跟大家道个歉#xff0c;里面确实有些东西说的有歧义#xff0c;而今天则系统的对LangChain最新的v1.0生态进行解读。 1、四大组成部分
LangChain发展至今#xff0c…之前写过一篇关于《[从框架到智能体一文看懂LangChain五兄弟的秘密]》文章这里先跟大家道个歉里面确实有些东西说的有歧义而今天则系统的对LangChain最新的v1.0生态进行解读。1、四大组成部分LangChain发展至今现早已不是一个框架那么简单只是因为LangChain的名字使用的最广泛知名度最高所以还在延用但我们要清楚现在说的LangChain其实指的是一个生态。这个全新的家族生态主要由四部分组成。LangChain生态的起点智能体的开发基石出现最早的基于LLM应用的框架主打链式Chain结构提供了基础能力例如模型调用、工具调用、智能体创建、中间件等。LangGraph发展到一定阶段的必然产物是复杂工作流的编排引擎从名字上也可以看出来主打Graph图结构。其核心是使用节点Node、边Edge和状态State打造有向图。Deep AgentsLangChain的新成员我没记错的话应该是今年8月慢慢放出消息后发布的其实我个人认为还是属于一个探索性质的项目比较年轻出现的目的则是想打造对标Manus和Claude Code这类工业级智能体。它构建于LangChain与LangGraph之上被定为是智能体执行框架背后的核心是由Agent Harness驱动的。不过它内部封装的一些核心特性例如任务自动规划、文件系统、大结果下沉英文是Large tool result eviction我也不知道咋翻译好、子智能体等还是确实能快速构建出一个较为复杂的智能体尤其是Deep Research那种确实特别快。注它内置的那些核心特性本质上都是中间件机制。而中间件机制我感觉是LangChain v1.0中最大的一个变化也是最重要的一个变化没有之一后面会详细说明。LangSmith这个就不多说了想必大家都很清楚跟智能体开发没啥关系是智能体的一个可观测性监控和智能体评估平台。当然基于非langchain开发的智能体也可以使用只不过他默认绑定的肯定是LangChain生态。所以从这也能看出来了LangChain团队的野心他要玩闭环才能把他的商业模式转起来开发-调试-部署-监控-评估-持续优化。所以现在LangChain 1.0生态主要包含我上面说的四部分千万不要认为只是一LangChain框架他是一个生态不要被名字骗了。2、LangChain v1.0新特性之前使用LangChain v0.x版本时大家可能都有这种感觉虽然其功能强大但是概念繁杂、框架整体臃肿、乱、学习曲线杂。而LangChain自2022年底发布以来将近3年的时间里版本号一直也没说直接上升到1.x始终停留在0.x版本这本身就说明了其快速发展中保持了谨慎的态度。而此次直接跃迁至v1.0真正意义上的第一个正式大版本其意义不言而喻并且其官方也声明了在v2.0到来之前不会再引入一些破坏性的颠覆功能特性所以大家是时候将老版本的代码进行重构和升级了。首先LangChain v1.0解决的第一个问题是统一性。它对框架进行了一次彻底的重构与瘦身目的不是为了引入更多的功能而是重塑开发者的体验。它废弃了老版本中冗余API统一了接口新版本中使得框架变得更为轻量、直观且容易维护。其背后的核心思想是抽象层设计引入了Runnable Interface作为统一入口点所有可执行组件实现了Runnable协议可被例如‘.invoke’和‘.stream’调用。result model.invoke(请帮我生成一段关于AI未来的简短总结。) pv chat_prompt.invoke({topic: LangChain 的核心理念}) result agent.invoke( {messages: [HumanMessage(content请计算3乘以5的结果是多少)]} ) for chunk in model.stream(请用一句话总结人工智能的意义): print(chunk.content, end) for chunk in graph.stream(inputs, stream_modecustom): print(chunk)其次更强化了智能体的理念。从早期的链式思维升级为以智能体为核心建立在LangGraph强大编排能力之上封装了智能体的编程接口‘create_agent’与’create_deep_agent’来创建智能体而并没有延用LangGraph的命名。因为在LangChain v1.0中已经将LangGraph下沉为底层框架了再加上有重要新特性中间件的加持我们大多数场景下无需再使用底层LangGraph API了。agent create_agent( modelllm, tools[calculate, get_info], system_prompt你是一位专业的智能助理拥有计算和信息查询的能力。请根据用户需求自主选择最合适的工具进行处理。, ) agent create_deep_agent( modelllm, tools[internet_search], system_promptresearch_instructions, )最后中间件与深度智能体。我个人感觉中间件绝对堪称LangChain v1.0版本增加的最核心机制它也可作为底层的一种机制LangChain v1.0封装的Agent组件背后大量用到了中间件感兴趣的可以看源码这里就不详细剖析了。中间件设计思想有点像Java Spring框架AOP的感觉但又不完全一样它允许开发者可以方便地注入日志记录和监控等通用性质逻辑但不必污染核心的业务代码为智能体的执行流程提供了强大的可观测性与可控性。除了可以自定义逻辑实现中间件外官方现在内置了12种常用场景下的中间件例如Summarization、Human-in-the-loopHITL、Model call limit等实在太方便了相信大家实际使用过就有感受了省去了我们自己去实现这些复杂逻辑用起来确实爽。官方预置中间件https://docs.langchain.com/oss/python/langchain/middleware/built-in具体使用上就给大家展示一小段使用它预置中间件的代码片段吧用起来很方便。# 会话摘要中间件极低阈值快速触发 middleware SummarizationMiddleware( modelsumm_llm, max_tokens_before_summary30, # 累计上下文估算到阈值30时触发把早期消息压缩成摘要。 messages_to_keep5, # 摘要后仍保留的最近N条原文 summary_prompt用20个字以内概括要点。, # 自定义“如何摘要”的提示词不设则用默认 ) agent create_agent( modelllm, tools[], system_prompt只用一句极短中文回答且不超过30个字。, # 只用“极简短句”回答 middleware[middleware], )但真正复杂场景智能体中需要切入很多主业务外的逻辑我们自己实现中间件时基于装饰器Decorator-based或基于类Class-based实现也还是需要写不少代码的。然后是Deep Agents深度智能体。文中前面也简单介绍了一些他背后就是在LangGraph之上基于中间件机制高度封装了一些开箱即用的特性通过提供了一套更高阶的Agent Harness进行调度。Agent Harness是Deep Agent整体的运行骨架负责驱动大模型、工具、文件系统、子智能体、中间件和长期记忆等协同工作。我们通过配置子智能体、文件系统路径、系统提示词和工具集等即可快速组装出具备深度规划与协作能力的复杂智能体我们也不需要理解底层Graph的实现细节极大限度降低了构建工业级智能体应用的门槛。Deep Agents背后最核心的三个中间件规划任务TodoListMiddleware、文件系统记忆FilesystemMiddleware、子智能体调度SubAgentMiddleware。最后关于Deep Agents再说一个实现要点吧是我个人在真实使用时的感受。它虽然进行了高度封装开箱即用我们进行一些简单配置例如配置模型、工具、子智能体、存储体系等就可以使用但是对于提示词编写的要求极高提示词一定要明确定义出每一个步骤所以反而最后优化系统提示词花了很长时间尤其复杂智能体下想让系统每一次都按照提示词的指示去做尤其稳定性这绝对是一个挑战。简单的场景这一点请忽略简单场景我测试时稳定性还是挺高的。当然这一点也跟模型的能力有关。# 创建并返回 Deep Agent agent create_deep_agent( modelmodel, tools[internet_search], system_promptDEEP_RESEARCH_SYSTEM_PROMPT, backendbackend_factory, storestore, subagentssubagents, interrupt_oninterrupt_on, checkpointercheckpointer, )当然LangChain v1.0中还有很多新特性上面只列举了我认为重要的一些还有很多大家可以通过LangChain官网左侧文档目录就可以看出来我就不过多说明了。oh对了突然想起来在使用LangSmith平台调试的时候原LangGraph Studio改名为LangSmith Studio了这个之前还真没注意。所以LangChain哈哈真是分的清楚要调试就在LangSmith上怕还用LangGraph Studio误会直接改为了LangSmith Studio除此之外官方也不建议再用LangServe了以后慢慢就被废弃掉了。3、LangChain v1.0迁移建议最后从我个人角度来聊聊如果要老项目重构或迁移为LangChain v1.0版本应该关注哪些重点。注意只提供需要考虑哪些重点不作为迁移指南使用以下建议仅供参考1、分析代码现状明确你代码用的是哪个LangChain生态包版本又或是混用langgraph老agent等方式。所以需要分析现有代码写法尤其LangChain众多老版本中API众多写法肯定各异。最后还需注意最后Python版本可能也需要升级因为v1.0移除了对Python 3.9的支持Python版本需 3.10影响范围可想而知。2、明确LangChain v1.0全家桶的核心变更评估想要迁移的具体写法。例如新的create\_agent()成为标准入口取代langgraph.prebuilt.create\_react\_agent或initialize\_agent等接口。同时还需确认是否保留旧特性如果需要可以通过langchain-classic和langchain-legacy兼容旧组件。3、依据场景不同评估是否需要重构。有些高级的复杂模块例如Deep Research这类业务我就推荐使用Deep Agent搞定了。还有些业务是否需要拆分使用子智能体或子图的方式实现。最后我个人建议与其考虑迁移到LangChain v1.0版本真不如直接就重构吧因为LangChain v1.0版本变化太大了。整体流程肯定是你需要先全面了解LangChain v1.0的新特性然后分析自己项目的业务与代码现状进行重要度、复杂度、重构风险与重构成本等评估制定重构业务或技术点的优先级。等全方位进行整体评估后制定重构计划再进行具体重构作业而并不简单的告诉开发者说出LangChain新版本了你们给系统升级下吧没那么简单。如何学习大模型 AI 由于新岗位的生产效率要优于被取代岗位的生产效率所以实际上整个社会的生产效率是提升的。但是具体到个人只能说是“最先掌握AI的人将会比较晚掌握AI的人有竞争优势”。这句话放在计算机、互联网、移动互联网的开局时期都是一样的道理。我在一线互联网企业工作十余年里指导过不少同行后辈。帮助很多人得到了学习和成长。我意识到有很多经验和知识值得分享给大家也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限很多互联网行业朋友无法获得正确的资料得到学习提升故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。第一阶段10天初阶应用该阶段让大家对大模型 AI有一个最前沿的认识对大模型 AI 的理解超过 95% 的人可以在相关讨论时发表高级、不跟风、又接地气的见解别人只会和 AI 聊天而你能调教 AI并能用代码将大模型和业务衔接。大模型 AI 能干什么大模型是怎样获得「智能」的用好 AI 的核心心法大模型应用业务架构大模型应用技术架构代码示例向 GPT-3.5 灌入新知识提示工程的意义和核心思想Prompt 典型构成指令调优方法论思维链和思维树Prompt 攻击和防范…第二阶段30天高阶应用该阶段我们正式进入大模型 AI 进阶实战学习学会构造私有知识库扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架抓住最新的技术进展适合 Python 和 JavaScript 程序员。为什么要做 RAG搭建一个简单的 ChatPDF检索的基础概念什么是向量表示Embeddings向量数据库与向量检索基于向量检索的 RAG搭建 RAG 系统的扩展知识混合检索与 RAG-Fusion 简介向量模型本地部署…第三阶段30天模型训练恭喜你如果学到这里你基本可以找到一份大模型 AI相关的工作自己也能训练 GPT 了通过微调训练自己的垂直大模型能独立训练开源多模态大模型掌握更多技术方案。到此为止大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗为什么要做 RAG什么是模型什么是模型训练求解器 损失函数简介小实验2手写一个简单的神经网络并训练它什么是训练/预训练/微调/轻量化微调Transformer结构简介轻量化微调实验数据集的构建…第四阶段20天商业闭环对全球大模型从性能、吞吐量、成本等方面有一定的认知可以在云端和本地等多种环境下部署大模型找到适合自己的项目/创业方向做一名被 AI 武装的产品经理。硬件选型带你了解全球大模型使用国产大模型服务搭建 OpenAI 代理热身基于阿里云 PAI 部署 Stable Diffusion在本地计算机运行大模型大模型的私有化部署基于 vLLM 部署大模型案例如何优雅地在阿里云私有部署开源大模型部署一套开源 LLM 项目内容安全互联网信息服务算法备案…学习是一个过程只要学习就会有挑战。天道酬勤你越努力就会成为越优秀的自己。如果你能在15天内完成所有的任务那你堪称天才。然而如果你能完成 60-70% 的内容你就已经开始具备成为一名大模型 AI 的正确特征了。这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】