智能科技网站模板下载地址建设银行网站缺点

张小明 2025/12/31 3:37:53
智能科技网站模板下载地址,建设银行网站缺点,如何注册chn域名网站,企业网站优化方案本文介绍LlamaIndex的Adapter适配器微调技术#xff0c;通过冻结基础模型仅训练轻量级适配器层#xff0c;实现显存需求降低90%#xff0c;训练时间大幅缩短。文章详细展示了从数据准备、模型微调到效果评估的完整流程#xff0c;提供了针对BGE、OpenAI等模型的实操代码通过冻结基础模型仅训练轻量级适配器层实现显存需求降低90%训练时间大幅缩短。文章详细展示了从数据准备、模型微调到效果评估的完整流程提供了针对BGE、OpenAI等模型的实操代码帮助开发者在资源受限环境下用普通电脑提升RAG系统检索效果仅需几MB参数即可实现领域适配。还在为微调嵌入模型需要大量GPU资源而发愁今天教你用LlamaIndex的Adapter适配器技术无论是BGE、OpenAI还是其他任何Embedding模型都能轻松微调用普通电脑就能让通用模型适配你的专业领域引言为什么需要微调嵌入模型在RAG检索增强生成系统中嵌入模型的质量直接决定了检索的准确性。虽然像BGE、OpenAI这样的通用嵌入模型已经很强大但在特定领域如医疗、法律、金融中它们往往表现不佳。传统的全量微调需要• 大量GPU显存通常需要16GB• 长时间训练可能需要数天• 存储完整模型副本而Adapter适配器微调只需要• 普通GPU或CPU即可显存需求降低90%• 训练时间大幅缩短• 只保存几MB的适配器参数什么是Adapter适配器微调Adapter适配器微调是一种参数高效的微调方法。它的核心思想是在预训练模型上添加一个轻量级的适配器层只训练这个适配器而冻结原始模型参数。原始嵌入 → [冻结的基础模型] → [可训练的Adapter层] → 微调后的嵌入这样做的好处参数少Adapter层通常只有几MB而全量微调需要保存整个模型几百MB到几GB训练快只更新少量参数训练速度提升10倍以上效果好在特定任务上Adapter微调的效果往往接近全量微调实战用LlamaIndex实现Adapter微调环境准备首先我们需要安装必要的依赖# pyproject.toml[project]dependencies [datasets4.4.1,llama-index-core0.14.8,llama-index-embeddings-adapter0.4.1,llama-index-embeddings-huggingface0.6.1,llama-index-embeddings-openai0.5.1,llama-index-embeddings-openai-like0.2.2,llama-index-finetuning0.4.1,llama-index-llms-openai-like0.5.3,llama-index-readers-file0.5.4,python-dotenv1.2.1,transformers[torch]4.57.1,]第一步准备训练数据集从PDF/Markdown等文档中提取文本使用大语言模型自动生成问答对作为训练数据。需准备两份语料一份为训练的语料一份为验证的语料。为了测试方便这里我们使用一份语料分别作训练和验证用。下载地址如下下载好放data目录。https://www.modelscope.cn/datasets/muxueai/ai_ai_yu_llm_study_lib/resolve/master/%E4%B8%AD%E5%8D%8E%E4%BA%BA%E6%B0%91%E5%85%B1%E5%92%8C%E5%9B%BD%E8%AF%81%E5%88%B8%E6%B3%95(2019%E4%BF%AE%E8%AE%A2).pdf项目的.env配置内容OPENAI_API_KEYsk-xxxOPENAI_API_BASEhttps://api.siliconflow.cn/v1LLM_MODELdeepseek-ai/DeepSeek-V3EMBEDDING_MODELQwen/Qwen3-Embedding-8B使用LlamaIndex的generate_qa_embedding_pairs函数自动调用大语言模型生成高质量的问答对。# # 1-gen_train_dataset.pyimport json from llama_index.core import SimpleDirectoryReader from llama_index.core.node_parser import SentenceSplitter import os from llama_index.finetuning import generate_qa_embedding_pairs from llama_index.llms.openai_like import OpenAILike from dotenv import load_dotenv load_dotenv() BASE_DIR rD:\Test\embedding_ft\data # 训练集和验证集文件路径 TRAIN_FILES [os.path.join(BASE_DIR, 中华人民共和国证券法(2019修订).pdf)] VAL_FILES [os.path.join(BASE_DIR, 中华人民共和国证券法(2019修订).pdf)] # 训练集和验证集语料库文件路径 TRAIN_CORPUS_FPATH os.path.join(BASE_DIR, train_corpus.json) VAL_CORPUS_FPATH os.path.join(BASE_DIR, val_corpus.json) def load_corpus(files, verboseFalse): if verbose: print(fLoading files {files}) reader SimpleDirectoryReader(input_filesfiles) docs reader.load_data() if verbose: print(fLoaded {len(docs)} docs) parser SentenceSplitter() nodes parser.get_nodes_from_documents(docs, show_progressverbose) if verbose: print(fParsed {len(nodes)} nodes) return nodes def mk_dataset(): train_nodes load_corpus(TRAIN_FILES, verboseTrue) val_nodes load_corpus(VAL_FILES, verboseTrue) # openai-like兼容大模型 llm OpenAILike( modelos.getenv(LLM_MODEL), api_baseos.getenv(OPENAI_API_BASE), api_keyos.getenv(OPENAI_API_KEY), temperature0.7, ) train_dataset generate_qa_embedding_pairs(llmllm, nodestrain_nodes) val_dataset generate_qa_embedding_pairs(llmllm, nodesval_nodes) train_dataset.save_json(TRAIN_CORPUS_FPATH) val_dataset.save_json(VAL_CORPUS_FPATH) mk_dataset()关键点•SimpleDirectoryReader自动读取PDF文档•SentenceSplitter将文档切分为合适的文本块•generate_qa_embedding_pairs使用LLM自动生成问答对无需人工标注• data目录下一共生成2个json,分别为微调所使用的训练集和 验证集。• 可以使用任意平台的大模型,为了生成高质量的数据集尽量选择能力强的大模型这里使用硅基平台的。第二步开始微调使用LlamaIndex的EmbeddingAdapterFinetuneEngine几行代码就能开始微调# 6-adapter-online-embedding.pyfrom llama_index.core.evaluation import EmbeddingQAFinetuneDataset from llama_index.finetuning import EmbeddingAdapterFinetuneEngine from llama_index.core.embeddings import resolve_embed_model import os from dotenv import load_dotenv load_dotenv() BASE_DIR rD:\Test\embedding_ft\data TRAIN_CORPUS_FPATH os.path.join(BASE_DIR, train_corpus.json) VAL_CORPUS_FPATH os.path.join(BASE_DIR, val_corpus.json) train_dataset EmbeddingQAFinetuneDataset.from_json(TRAIN_CORPUS_FPATH) val_dataset EmbeddingQAFinetuneDataset.from_json(VAL_CORPUS_FPATH) base_embed_model resolve_embed_model( rlocal:D:\Test\embedding_ft\model\BAAI\bge-small-en-v1___5 ) finetune_engine EmbeddingAdapterFinetuneEngine( train_dataset, base_embed_model, model_output_pathadapter_model_output, # biasTrue, epochs10, verboseTrue, # optimizer_classtorch.optim.SGD, # optimizer_params{lr: 0.01} ) finetune_engine.finetune() embed_model finetune_engine.get_finetuned_model() print(embed_model)关键参数说明• 使用bge-small-en-v1.5作为基础模型你也可以选择其他模型从魔塔社区或者Hugging face上下载模型文件保存到项目的model目录下。•model_output_path: 适配器模型保存路径只有几MB•epochs: 训练轮数通常4-10轮就足够•bias: 是否在Adapter层使用偏置可选•optimizer_class和optimizer_params: 自定义优化器可选第三步评估模型效果微调完成后我们需要评估模型在验证集上的表现。通常使用两个指标•Hit Rate命中率检索到的Top-K结果中是否包含正确答案•MRR平均倒数排名正确答案在检索结果中的平均排名倒数# 5-eval-mrr.pyfrom llama_index.embeddings.openai_like import OpenAILikeEmbeddingfrom llama_index.core.evaluation import EmbeddingQAFinetuneDatasetfrom eval_utils import evaluate, display_resultsfrom sentence_transformers import SentenceTransformerfrom llama_index.core.embeddings import resolve_embed_modelfrom llama_index.embeddings.adapter import LinearAdapterEmbeddingModelimport osfrom dotenv import load_dotenvload_dotenv()BASE_DIR rD:\Test\embedding_ft\dataVAL_CORPUS_FPATH os.path.join(BASE_DIR, val_corpus.json)val_dataset EmbeddingQAFinetuneDataset.from_json(VAL_CORPUS_FPATH)# 评估在线的Embedding模型qwen3_embedding OpenAILikeEmbedding( model_nameos.getenv(EMBEDDING_MODEL), api_baseos.getenv(OPENAI_API_BASE), api_keyos.getenv(OPENAI_API_KEY), embed_batch_size10,)qwen3_embedding_val_results evaluate(val_dataset, qwen3_embedding)print(display_results([qwen3_embedding], [qwen3_embedding_val_results]))# 评估原始的Embedding模型orgin_embedding_val_results evaluate(val_dataset, rlocal:D:\Test\embedding_ft\model\BAAI\bge-small-en-v1___5)print(display_results([orgin_embedding], [orgin_embedding_val_results]))# 评估本地微调过的Embedding模型,路径前要加上local:ft_embedding_val_results evaluate(val_dataset, rlocal:D:\Test\embedding_ft\exp_finetune)print(display_results([ft_embedding], [ft_embedding_val_results]))# 评估Adapter微调过的Embedding模型 base_embed_model resolve_embed_model(rlocal:D:\Test\embedding_ft\model\BAAI\bge-small-en-v1___5)adapt_embed_model LinearAdapterEmbeddingModel(base_embed_model, model_output_test)apapt_val_results evaluate(val_dataset, adapt_embed_model)display_results([adapt_embedding], [apapt_val_results])评估结果示例模型类型Hit RateMRRqwen3模型0.2580.197原始bge模型0.0890.04Adapter微调0.1230.063全量微调0.2350.128可以看到Adapter微调在只训练少量参数的情况下效果已非常明显进阶使用两层神经网络Adapter如果单层线性Adapter效果不够好可以尝试两层神经网络Adapterfrom llama_index.core.embeddings.adapter_utils import TwoLayerNNfrom llama_index.finetuning import EmbeddingAdapterFinetuneEnginefrom llama_index.embeddings.adapter import AdapterEmbeddingModel# 创建两层神经网络适配器adapter_model TwoLayerNN(384, # 输入维度BGE-small的输出维度1024, # 隐藏层维度384, # 输出维度 biasTrue, add_residualTrue, # 添加残差连接)finetune_engine EmbeddingAdapterFinetuneEngine( train_dataset, base_embed_model, model_output_pathmodel_2layer_output, model_checkpoint_pathmodel_2layer_ck, # 保存检查点 adapter_modeladapter_model, epochs25, # 两层网络需要更多轮次 verboseTrue,)finetune_engine.finetune()# 加载微调后的模型embed_model_2layer finetune_engine.get_finetuned_model( adapter_clsTwoLayerNN)使用微调后的模型微调完成后可以像使用普通嵌入模型一样使用它from llama_index.embeddings.adapter import LinearAdapterEmbeddingModelfrom llama_index.core.embeddings import resolve_embed_model# 加载基础模型base_embed_model resolve_embed_model(rlocal:D:\Test\embedding_ft\model\BAAI\bge-small-en-v1___5)# 加载适配器embed_model LinearAdapterEmbeddingModel( base_embed_model, model_output_test)# 在RAG系统中使用from llama_index.core import VectorStoreIndex, Documentdocuments [Document(text你的文档内容)]index VectorStoreIndex.from_documents( documents, embed_modelembed_model)query_engine index.as_query_engine()response query_engine.query(你的问题)最佳实践与技巧1. 数据准备•数据量通常1000-10000个问答对就足够•数据质量确保查询和文档的相关性标注准确•数据平衡尽量覆盖领域内的各种查询类型2. 训练参数调优•学习率默认学习率通常效果不错如需调整建议在0.0001-0.001之间•训练轮数单层Adapter通常4-10轮两层网络需要15-25轮•批次大小根据显存调整通常16-32效果较好3. 模型选择•基础模型选择与你的领域相近的预训练模型•Adapter类型先尝试单层线性Adapter效果不够再试两层网络4. 效果评估• 在验证集上评估避免过拟合• 对比多个模型原始模型、Adapter微调、全量微调• 关注实际业务指标而不仅仅是Hit Rate和MRR5、对闭源模版的微调该方法同样适用于网上闭源的Embedding模型的微调比如对openai的text-embedding-ada-002微调代码如下from llama_index.finetuning import EmbeddingAdapterFinetuneEngine, generate_qa_embedding_pairsfrom llama_index.embeddings.openai import OpenAIEmbedding# 步骤1准备数据集train_dataset generate_qa_embedding_pairs(train_nodes)val_dataset generate_qa_embedding_pairs(val_nodes)# 步骤2创建在线 embedding 实例embed_model OpenAIEmbedding(model_nametext-embedding-ada-002, api_keysk-...)# 步骤3初始化微调引擎finetune_engine EmbeddingAdapterFinetuneEngine( train_dataset, embed_model, model_output_pathadapter_output, epochs4, verboseTrue,)# 步骤4开始微调finetune_engine.finetune()步骤概述准备训练数据集如 EmbeddingQAFinetuneDataset。用 resolve_embed_model 或 OpenAIEmbedding/HuggingFaceEmbedding 创建在线 embedding 实例。初始化 EmbeddingAdapterFinetuneEngine传入数据集和 embedding 实例指定输出路径等参数。调用 finetune() 开始训练微调的适配器会自动保存。6、EmbeddingAdapterFinetuneEngine和SentenceTransformersFinetuneEngine对比• EmbeddingAdapterFinetuneEngine 用于在任意黑盒嵌入模型如 OpenAI、sentence-transformers、本地模型等输出的向量上微调一个轻量级的适配器如线性层不改变原始大模型参数适合模型不可训练或只想快速适配场景。• SentenceTransformersFinetuneEngine 则直接对 sentence-transformers 兼容的大模型参数进行全量微调适合你有完整训练权限和资源时使用。两者都能提升检索效果但微调对象和适用场景不同。7、eval_utils.py 代码code-snippet__js from llama_index.core.schema import TextNode from llama_index.core import Settings from llama_index.core import VectorStoreIndex import pandas as pd from tqdm import tqdm def evaluate( dataset, embed_model, top_k5, verboseFalse, ): corpus dataset.corpus queries dataset.queries relevant_docs dataset.relevant_docs embed_model embed_model or Settings.embed_model nodes [TextNode(id_id_, texttext) for id_, text in corpus.items()] index VectorStoreIndex( nodes, embed_modelembed_model, show_progressTrue ) retriever index.as_retriever(similarity_top_ktop_k) eval_results [] for query_id, query in tqdm(queries.items()): retrieved_nodes retriever.retrieve(query) retrieved_ids [node.node.node_id for node in retrieved_nodes] expected_id relevant_docs[query_id][0] rank None for idx, id in enumerate(retrieved_ids): if id expected_id: rank idx 1 break is_hit rank is not None # assume 1 relevant doc mrr 0 if rank is None else 1 / rank eval_result { is_hit: is_hit, mrr: mrr, retrieved: retrieved_ids, expected: expected_id, query: query_id, } eval_results.append(eval_result) return eval_results def display_results(names, results_arr): Display results from evaluate. hit_rates [] mrrs [] for name, results in zip(names, results_arr): results_df pd.DataFrame(results) hit_rate results_df[is_hit].mean() mrr results_df[mrr].mean() hit_rates.append(hit_rate) mrrs.append(mrr) final_df pd.DataFrame( {retrievers: names, hit_rate: hit_rates, mrr: mrrs} ) print(final_df)总结Adapter微调是一种参数高效、成本低廉、效果显著的嵌入模型微调方法。通过本文的实战教程你可以✅ 用普通电脑微调嵌入模型✅ 在特定领域提升检索效果20%✅ 只保存几MB的适配器参数✅ 快速迭代和实验不同的适配器架构适用场景• 垂直领域的RAG系统• 多语言检索优化• 特定文档类型的检索• 资源受限的环境不适合的场景• 需要大幅改变模型架构• 训练数据与预训练数据分布差异极大• 需要同时微调多个任务希望这篇文章能帮助你在RAG系统中获得更好的检索效果如果你在实际应用中遇到问题欢迎在评论区交流讨论。AI时代未来的就业机会在哪里答案就藏在大模型的浪潮里。从ChatGPT、DeepSeek等日常工具到自然语言处理、计算机视觉、多模态等核心领域技术普惠化、应用垂直化与生态开源化正催生Prompt工程师、自然语言处理、计算机视觉工程师、大模型算法工程师、AI应用产品经理等AI岗位。掌握大模型技能就是把握高薪未来。那么普通人如何抓住大模型风口AI技术的普及对个人能力提出了新的要求在AI时代持续学习和适应新技术变得尤为重要。无论是企业还是个人都需要不断更新知识体系提升与AI协作的能力以适应不断变化的工作环境。因此这里给大家整理了一份《2025最新大模型全套学习资源》包括2025最新大模型学习路线、大模型书籍、视频教程、项目实战、最新行业报告、面试题等带你从零基础入门到精通快速掌握大模型技术由于篇幅有限有需要的小伙伴可以扫码获取1. 成长路线图学习规划要学习一门新的技术作为新手一定要先学习成长路线图方向不对努力白费。这里我们为新手和想要进一步提升的专业人士准备了一份详细的学习成长路线图和规划。2. 大模型经典PDF书籍书籍和学习文档资料是学习大模型过程中必不可少的我们精选了一系列深入探讨大模型技术的书籍和学习文档它们由领域内的顶尖专家撰写内容全面、深入、详尽为你学习大模型提供坚实的理论基础。书籍含电子版PDF3. 大模型视频教程对于很多自学或者没有基础的同学来说书籍这些纯文字类的学习教材会觉得比较晦涩难以理解因此我们提供了丰富的大模型视频教程以动态、形象的方式展示技术概念帮助你更快、更轻松地掌握核心知识。4. 大模型项目实战学以致用当你的理论知识积累到一定程度就需要通过项目实战在实际操作中检验和巩固你所学到的知识同时为你找工作和职业发展打下坚实的基础。5. 大模型行业报告行业分析主要包括对不同行业的现状、趋势、问题、机会等进行系统地调研和评估以了解哪些行业更适合引入大模型的技术和应用以及在哪些方面可以发挥大模型的优势。6. 大模型面试题面试不仅是技术的较量更需要充分的准备。在你已经掌握了大模型技术之后就需要开始准备面试我们将提供精心整理的大模型面试题库涵盖当前面试中可能遇到的各种技术问题让你在面试中游刃有余。为什么大家都在学AI大模型随着AI技术的发展企业对人才的需求从“单一技术”转向 “AI行业”双背景。企业对人才的需求从“单一技术”转向 “AI行业”双背景。金融AI、制造AI、医疗AI等跨界岗位薪资涨幅达30%-50%。同时很多人面临优化裁员近期科技巨头英特尔裁员2万人传统岗位不断缩减因此转行AI势在必行这些资料有用吗这份资料由我们和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理现任上海殷泊信息科技CEO其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证服务航天科工、国家电网等1000企业以第一作者在IEEE Transactions发表论文50篇获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。资料内容涵盖了从入门到进阶的各类视频教程和实战项目无论你是小白还是有些技术基础的技术人员这份资料都绝对能帮助你提升薪资待遇转行大模型岗位。大模型全套学习资料已整理打包有需要的小伙伴可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】
版权声明:本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!

上市公司查询网站Wordpress 相同tag

SeedVR2技术深度解析:重新定义AI驱动的视觉增强边界 【免费下载链接】SeedVR2-3B 项目地址: https://ai.gitcode.com/hf_mirrors/ByteDance-Seed/SeedVR2-3B 在当今内容创作爆炸式增长的时代,视频与图像质量已成为决定作品成败的关键因素。然而&…

张小明 2025/12/28 5:24:05 网站建设

湛江建网站国产 wordpress 框架

1. RMSprop 算法在上一部分中,我们通过 Momentum 解决了“方向震荡”的问题:它利用 EMA 平滑梯度的方向,让模型在主方向上走得更快,在乱方向上走得更稳。但这时,其实还有一个问题没解决:不同参数的梯度幅度…

张小明 2025/12/29 3:22:33 网站建设

不会被封的网站谁做河北住房和城乡建设官网

前面原理阶段已经简单电子设备的关键是计算机系统设计,在这里我们准备再进一步。简单计算机系统是单片机,复杂的是单处理器多总线架构单机,更复杂是多处理器相关的并行、容错系统。有时后面两个,在多核处理器出现后,已…

张小明 2025/12/29 1:53:38 网站建设

百度商桥怎么嵌入网站衡阳退休职工做面膜网站

C++与SQL解析器相关知识详解 1. C++解析器基础 在C++中使用解析器时,与C纯解析器不同,C++纯解析器要求先创建解析器的实例,然后再调用它。以下是一个简单的 myatoi 函数,用于将指定进制的字符串转换为整数: int myatoi(int radix, char *s) {int v = 0;while(*s) {v…

张小明 2025/12/29 1:53:05 网站建设

品牌建设全过程南京市网站seo整站优化

一、关键词学生管理系统、学籍管理系统、教务系统、选课系统、成绩管理系统二、作品包含源码数据库万字设计文档全套环境和工具资源本地部署教程三、项目技术前端技术:Html、Css、Js、Vue3.2、Element-Plus后端技术:Python、Django、PyMySQL四、运行环境…

张小明 2025/12/28 10:24:25 网站建设

做网站去哪个公司好青岛市崂山区城乡建设局网站

高效智能音乐搜索器:一站式多平台音乐资源整合方案 【免费下载链接】music 音乐搜索器 - 多站合一音乐搜索解决方案 项目地址: https://gitcode.com/gh_mirrors/mus/music 在音乐内容日益分散的今天,你是否曾为了找到心仪的歌曲而在不同音乐平台间…

张小明 2025/12/29 2:51:34 网站建设