天津网站搜索排名优化,微信公众号开通商城,wordpress怎么上传插件,天津网站优化公司之前我们已经单独介绍了MCP、Fuction Calling、A2A乃至#xff08;Claude#xff09;Skills。
但是很多粉丝依旧觉得有些懵逼#xff0c;我想了想原因#xff0c;大概是单点知识不具备连贯性#xff0c;要把他们完全搞懂#xff0c;可能还是要从全局出发、从目的出发。
追…之前我们已经单独介绍了MCP、Fuction Calling、A2A乃至ClaudeSkills。但是很多粉丝依旧觉得有些懵逼我想了想原因大概是单点知识不具备连贯性要把他们完全搞懂可能还是要从全局出发、从目的出发。追本溯源这个东西还是得从智能体Agent开始。因为MCP、Fuction Calling、A2A 这三者与Agent直接相关属于智能体与外界交互的三种方式Fuction Calling首先是Fuction Calling他是一种让大模型在推理过程中能够主动选择并调用外部函数的能力具体的交互逻辑为在对话中LLM根据用户的问题今天北京的天气如何判断是否需要调用函数。如果需要它会输出一个结构化的JSON请求其中包含了要调用的函数名和参数然后再调用我们的程序具体的流程直接看GPT官方的定义即可# 这是给模型看的工具定义不是真正的代码tools [{type: function,name: get_weather,description: Retrieves current weather for the given location.,parameters: { type: object, properties: { location: { type: string, description: City and country e.g. Bogotá, Colombia }, ...... }, }}]每次调用API时都需要传递tools参数这里直接调用GPT接口发起请求# 每次调用API时都需要传递tools参数调用GPT接口发起请求response client.responses.create( modelgpt-5, messages[...], toolstools # ← 这个每次都要带)这里也可以看出来模型具有哪些工具调用能力全部是我们预定义好的模型会根据用户输入选择使用哪个工具# 用户输入user_query 今天北京天气怎么样# 模型会分析# - 用户问的是天气 → 匹配到 get_weather 的 description# - 提到了北京 → 对应 location 参数# - 决定调用 get_weather 函数只不过模型事实上并不会直接调用工具他只会返回结构化的调用指令这里返回这个东西是模型专门任务训练的结果{ function_call: { name: get_weather, arguments: {\location\: \北京\, \unit\: \celsius\} }}真正根据返回JSON数据调用脚本的是我们后台程序并且这里需要将调用结果给到模型# 把天气结果返回给模型# result是返回的结果final_response llm.chat( modelgpt-5, messages[ {role: user, content: 今天北京天气怎么样}, {role: assistant, function_call: model_response[function_call]}, {role: function, name: get_weather, content: json.dumps(result)} ])逻辑很清晰如果意图识别没有工具函数调用则直接调用大模型返回给用户如果判断有工具调用那么就拿着首次模型返回的参数拿到结果后二次调用模型再将最终结果返回给用户。这里有几个点要特别注意如果你的工具接口挂了容错做得不好的话那么模型就不会回答用户了。另外还有几个问题理解后几乎就能了解Fuction Calling的本质乃至为什么他用得不太频繁的原因第一如果Tools工具过多数组过多这个也是要占用上下文长度的所以真实使用会做很多小处理第二Fuction Calling 使用好坏非常依赖于模型本身对意图识别的能力模型判断要不要调用一个函数主要是根据description参数来的。这里看上去风险挺大的因为一定会出现模型调用出问题的情况只不过模型容错能力强多拿了数据也未必会影响回答在这个基础下我们再来说MCPMCPFunction Calling 本身没有问题但频繁使用后会有很多痛点比如不同基座模型都有类似Function Calling的概念但具体叫法或者参数上可能有差异整个Tools预定义的过程硬编码痕迹很重但他其实比较适合注册机制…Function Calling解决的是单个模型怎么“按你定义的 JSON 协议”去调你自己的API的问题。而MCP就是为了解决这些问题而生的所以MCP的但是其实是帮Function Calling “擦屁股”的…MCP 是由 Anthropic 提出的一种开源协议旨在标准化LLM与外部资源和工具的连接方式。可以把它想象成 AI 世界的“USB标准”或“应用商店”。只不过这里有个非常关键的点要注意现在主流厂商大多都实现了各自的 Function CallingMCP 目前主要是 Anthropic 这条线在推是工具协议层换句话说就是并不是所有模型厂商都跟进了MCP如果基座模型没做那么应用层就得自己套壳包装如果不被支持的情况下要使用MCP其实有两个前提第一是在模型侧需要用 Function Calling第二是在客户端自己把 MCP 工具转成 Function Calling 描述再喂给模型最直接的说法就是OpenAI就是不支持MCP人家要自己玩所以想用的话还得做个中间代理而我们会屈就的核心原因不是因为MCP本身很屌而是社群一直在倒推基座模型厂商现阶段由于社区活跃度MCP的插件Server端已经很多了如果我们想省事不想自己去做这个工具代码实现那么就要做这个中间桥接层这里首先来个天气查询Server端的伪代码start_mcp_server(weather-mcp-server):# 1声明一个工具get_weather register_tool( name get_weather, description 查询指定城市今天的天气情况, input_schema { type: object, properties: { city: { type: string, description: 城市名称例如Beijing } }, required: [city] }, output_schema { type: object, properties: { city: { type: string }, temperature: { type: number }, condition: { type: string } # 晴、多云、小雨... } } )# 2真正被调用时要做的事 on_tool_call(get_weather, args): city args.city # 这里调用真实天气接口或者你的内部系统 raw http_get(https://api.weather.com, { q: city }) return { city: city, temperature: raw.temp, condition: raw.text }Server端的代码我们其实是不关心的这里写出来只是为了让大家更了解一点我们需要关注的是Client端的配置如果是OpenAI的话需要将之匹配到桥阶层有两件事要做调用天气 MCP Server拉取工具定义把工具定义 转换成 OpenAI 的 toolsFunction Calling格式并在模型发起 tool_call 时代为转发给 MCP Server这里的代码就很简单了几乎全部由MCP Server端完成了# 启动你的应用服务时# 1创建 MCP Client连接到天气 MCP Servermcp_client MCPClient.connect(weather-mcp-server)# 2从 Server 询问你有哪些工具mcp_tools mcp_client.list_tools()# 例如返回# [# {# name: get_weather,# description: 查询指定城市今天的天气情况,# input_schema: { ...上面的 JSON Schema... }# }# ]接下来就是把 MCP 工具转成 OpenAI 的 tools# 3把 MCP 的工具描述转换成 OpenAI 的 tools 数组openai_tools []for each tool in mcp_tools: openai_tools.append({ type: function, function: { name: tool.name, # get_weather description: tool.description, # 查询指定城市今天的天气情况 parameters: tool.input_schema # 直接复用或稍作转换 } })# 之后你在调用 OpenAI 时就可以直接把 openai_tools 作为 tools 传入再之后的流程跟Function Calling 很类似我们这里就不赘述了。A2A到了 Agent to Agent 这里情况马上变得简单又麻烦了简单好像就是一次调用麻烦的话是两个直接的通信可以很复杂而且可控性得不到保障。这里以之前的天气调用为例基本的流程是模型 → 工具到A2A这里就不这么完了他需要模型 → 模型 → 工具。而且在复杂场景下这样做是有好处的必定不同Agent擅长的方向不一样对应着底层的提示词就不一样单Agent的话因为任务简单也不会有Tools过多导致的问题为了更方便的说明我们这里再举个例子这里有两个Agent一个天气Agent、一个旅游Agent而旅游Agent需要天气情况。他的触发词可能是五一想去成都玩三天要不要带厚一点的衣服在这个场景下会出现三个角色天气API最底层天气查询API天气MCP天气工具MCP Server服务他最终会调用底层天气API也会被天气Agent调用天气Agent需要时候他会调用天气MCP获得天气情况这里唯一的不同是天气Agent会对外暴露一个接口输入是 城市 日期范围输出一段天气或者旅游建议。换句话说天气Agent给出去的信息是自己根据天气信息认为对面需要的跟天气相关信息但未必是天气本身其实将天气Agent当大模型调用就好而具体的调用方式就比较原始了又要回归最初的Function Calling了将天气Agent对外释放的API当成旅游Agent一个Tool只是Agent的调用对参数要求没那么高可以传更多的上下文{ city: city,start_date: start_date,end_date: end_date,question: 是否适合旅游要怎么穿衣}# 天气Agent返回{summary: 五一期间成都气温 15–25℃白天舒适早晚偏凉。,advice: 白天薄长袖长裤晚上建议加一件外套。,risk: 5月2日有小雨记得带雨伞。}所以读到这里大家就很清晰了真他嘛的AI名词多其实全部是Function Calling最后我们说下Claude SkillsSkillsAnthropic 对Skill的定义是一个文件夹里面装着说明文档、脚本和资源Claude 在执行任务时会先扫一圈所有 Skills觉得哪个对当前任务有用就把完整内容拉进上下文来用。我这边翻译翻译是Skill 一份可反复调用的专业SOP说明书由模型自己按需加载可以把 Skill 想成给“AI 员工”写的一本 岗位说明书 培训手册不用每次在 Prompt 里“从零复述”Skills长什么样每个Skill有一段非常短的描述meta比如品牌写作技能教你如何按照 XX 公司品牌规范写公众号文章和活动文案。Claude 在接到一个任务时会先用这些 meta 做 “技能检索”看看当前任务跟哪些 Skills 相关、只选命中的那几个最后只有确认相关的 Skills才会把完整的 instructions.md、例子、甚至附带脚本拉进上下文。所以你可以给模型装很多技能上下文不会撑爆他主打一个“按需加载”。抽象一下一个Skill看起来大概是这样不是官方格式brand_style_skill/ meta.json # 很短的技能简介 什么时候用 instructions.md # 详细的写作规范、SOP、负面示例 examples/ # 正反例、few-shot 样本 scripts/ # 可选比如检查用词的小脚本 assets/ # 品牌色、Logo 使用规范等资源meta.json 里的东西会被优先加载{ name: brand_style_cn, description: 按照 XX 品牌规范撰写中文营销文案保持语气、结构和禁用词一致。, good_for: [ 公众号推文, 电商详情页, 活动落地页 ]}当你说帮我写一篇双十一活动主推文案品牌是 XX。Claude 在内部大致会做两件事看当前任务内容 → 觉得“品牌写作”相关在所有 Skills 的 meta 里找到 brand_style_cn → 决定加载这个 Skill 的完整说明之后Skill 里的各种“套路”就会生效比如标题要包含的要素开头 100 字要解决什么问题哪些词属于品牌禁用词有哪些可复用的模块化段落结构…Skills的定位上述的描述太孤立所以在说明Skill的定位前我们先总结一下Function Calling出现的目的是为了让模型在受控的自由下去调用第三方服务而后MCP是为了“偷懒”而生核心主旨是让大家多创造插件生态MCP ServerA2A的话反而跟前两者不是一个赛道他属于复杂架构的拆解所以A2A赛道不一样就不参与后续讨论我们这里回归最初的起点Function Calling前面说过他有两个问题第一Tools多了影响Token上下文所以需要很多小策略第二Function Calling的准确性很依赖于意图识别如果调错了会比较麻烦在这两点以外还有第三点每次Function Calling的数据中途我们都要处理工具返回数据这其实挺烦的之前上述工作完全是我们自己手动处理的但基座模型厂商可能觉得“他们也有责任”所以Anthropic又提出了Skill概念协助解决上述Function Calling一部分问题比如Skill 主要关注数据如何用的问题而其中按需加载的部分是值得Function Calling参考的策略从关系上说是这么回事Function Calling / MCP 提供“手”Skills 提供“干这类活的整套套路”两者是“上下游”的关系Skills 可以内部用 Function Calling 和 MCPFunction Calling/MCP 不知道什么叫 SkillSkills 业务服务 调用这些接口的代码 使用说明为了让大家理解的更清晰我们这里加个说明流程说明在一个老板 BI Agent里配置了一批 Tools/MCP 工具get_sales_reportget_marketing_spendget_cashflow_status两个 Skillsboss_bi_dashboard_cn教模型如何用上面几个工具按老板视角解释数字、写结论里面有详细的 KPI 口径、话术、注意事项excel_analysis_skill教模型如何用 code execution 对上传的 Excel 做分析这时候触发条件来了**帮我看看今年 Q3 的营收和投放简单说说是不是该收一收预算**这里具体的流程是一、先走Skill检索模型首先会理解这是一个老板视角的财务分析 决策建议接下来模型会遍历Skills里所有的meta发现 boss_bi_dashboard_cn 的描述里有类似用于解读公司经营指标、营收、成本、预算输出老板视角决策建议所以它会激活这个 Skill读取 instructions.md把这份“说明书 SOP”拉进当前上下文。此时Tools/MCP 还没被调用模型完成了从很多工具定义 一堆 Skills里选出一个最合适的技能包。二、Skill里面决定工具调用boss_bi_dashboard_cn 的 instructions.md 可能会写类似这样的话如果用户问的是某个时间段的“营收 投放”先调用 get_sales_report 拿营收数据再调用 get_marketing_spend 拿投放数据然后根据「同比 / 环比 / ROAS」给出老板能看懂的判断输出结论时要用以下结构一句话结论2–3 个关键数字建议动作风险提示Claude 读了这份说明后就知道下一步应该先查 KPI → 需要工具然后就是具体工具调用get_sales_report({period: 2024-Q3})get_marketing_spend({period: 2024-Q3})到这里Function Calling / MCP 出场了。三、数据处理 SOP这里走Function Calling的逻辑拿到最终反馈数据即可这里不展开{ sales: 12345678, growth_rate: 0.12, gross_margin: 0.31}然后就是数据使用这个instructions.md里面已经说得很清楚了输出结构怎么写哪些数字要重点强调语气要偏老板视角少讲实现多讲结论和动作有哪些“常见坑”要避开# 输出案例结论Q3 的营收仍在增长但投放效率明显走低建议适度收缩预算、把钱放到 ROAS 更高的渠道上。......后面是建议 风险......从这里看就比较清晰了Skills在意图识别和数据使用上做了不少工作。结语从最基础的 Function Calling到旨在统一工具的 MCP再到实现复杂协作的 A2A乃至封装业务逻辑的 Skills这一系列令人蛋疼的名词其演进脉络始终清晰它们为AI智能体更好与现实世界交互而生Function Calling 是底层原子能力是弥合用户无限意图与模型与现实交互的基础MCP 做的是**“工具/数据的统一协议 生态”**方便别人写好一个 Server更多客户端直接复用而不是一个个项目 copy 粘贴A2A 不是“更高级的 Function Calling”而是**“系统怎么拆成一群 Agent并用结构化方式彼此调用”**的架构问题Skills 也不是来抢工具活的而是帮你沉淀“怎么用工具 怎么用数据”的那套 SOP理了一圈后就发现这些名词其实没那么玄乎其实依旧是模型 工具 数据 说明书这套组合。好了篇幅不小了希望这篇文章对大家有用想入门 AI 大模型却找不到清晰方向备考大厂 AI 岗还在四处搜集零散资料别再浪费时间啦2025 年AI 大模型全套学习资料已整理完毕从学习路线到面试真题从工具教程到行业报告一站式覆盖你的所有需求现在全部免费分享扫码免费领取全部内容一、学习必备100本大模型电子书26 份行业报告 600 套技术PPT帮你看透 AI 趋势想了解大模型的行业动态、商业落地案例大模型电子书这份资料帮你站在 “行业高度” 学 AI1. 100本大模型方向电子书2. 26 份行业研究报告覆盖多领域实践与趋势报告包含阿里、DeepSeek 等权威机构发布的核心内容涵盖职业趋势《AI 职业趋势报告》《中国 AI 人才粮仓模型解析》商业落地《生成式 AI 商业落地白皮书》《AI Agent 应用落地技术白皮书》领域细分《AGI 在金融领域的应用报告》《AI GC 实践案例集》行业监测《2024 年中国大模型季度监测报告》《2025 年中国技术市场发展趋势》。3. 600套技术大会 PPT听行业大咖讲实战PPT 整理自 2024-2025 年热门技术大会包含百度、腾讯、字节等企业的一线实践安全方向《端侧大模型的安全建设》《大模型驱动安全升级腾讯代码安全实践》产品与创新《大模型产品如何创新与创收》《AI 时代的新范式构建 AI 产品》多模态与 Agent《Step-Video 开源模型视频生成进展》《Agentic RAG 的现在与未来》工程落地《从原型到生产AgentOps 加速字节 AI 应用落地》《智能代码助手 CodeFuse 的架构设计》。二、求职必看大厂 AI 岗面试 “弹药库”300 真题 107 道面经直接抱走想冲字节、腾讯、阿里、蔚来等大厂 AI 岗这份面试资料帮你提前 “押题”拒绝临场慌1. 107 道大厂面经覆盖 Prompt、RAG、大模型应用工程师等热门岗位面经整理自 2021-2025 年真实面试场景包含 TPlink、字节、腾讯、蔚来、虾皮、中兴、科大讯飞、京东等企业的高频考题每道题都附带思路解析2. 102 道 AI 大模型真题直击大模型核心考点针对大模型专属考题从概念到实践全面覆盖帮你理清底层逻辑3. 97 道 LLMs 真题聚焦大型语言模型高频问题专门拆解 LLMs 的核心痛点与解决方案比如让很多人头疼的 “复读机问题”三、路线必明 AI 大模型学习路线图1 张图理清核心内容刚接触 AI 大模型不知道该从哪学起这份「AI大模型 学习路线图」直接帮你划重点不用再盲目摸索路线图涵盖 5 大核心板块从基础到进阶层层递进一步步带你从入门到进阶从理论到实战。L1阶段:启航篇丨极速破界AI新时代L1阶段了解大模型的基础知识以及大模型在各个行业的应用和分析学习理解大模型的核心原理、关键技术以及大模型应用场景。L2阶段攻坚篇丨RAG开发实战工坊L2阶段AI大模型RAG应用开发工程主要学习RAG检索增强生成包括Naive RAG、Advanced-RAG以及RAG性能评估还有GraphRAG在内的多个RAG热门项目的分析。L3阶段跃迁篇丨Agent智能体架构设计L3阶段大模型Agent应用架构进阶实现主要学习LangChain、 LIamaIndex框架也会学习到AutoGPT、 MetaGPT等多Agent系统打造Agent智能体。L4阶段精进篇丨模型微调与私有化部署L4阶段大模型的微调和私有化部署更加深入的探讨Transformer架构学习大模型的微调技术利用DeepSpeed、Lamam Factory等工具快速进行模型微调并通过Ollama、vLLM等推理部署框架实现模型的快速部署。L5阶段专题集丨特训篇 【录播课】四、资料领取全套内容免费抱走学 AI 不用再找第二份不管你是 0 基础想入门 AI 大模型还是有基础想冲刺大厂、了解行业趋势这份资料都能满足你现在只需按照提示操作就能免费领取扫码免费领取全部内容2025 年想抓住 AI 大模型的风口别犹豫这份免费资料就是你的 “起跑线”