<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/">
  <channel>
    <title>模型微调 on Leanku</title>
    <link>https://blog.leanku.com/tags/%E6%A8%A1%E5%9E%8B%E5%BE%AE%E8%B0%83/</link>
    <description>Recent content in 模型微调 on Leanku</description>
    <image>
      <url>https://blog.leanku.com/papermod-cover.png</url>
      <link>https://blog.leanku.com/papermod-cover.png</link>
    </image>
    <generator>Hugo -- gohugo.io</generator>
    <lastBuildDate>Fri, 24 Oct 2025 00:01:01 +0800</lastBuildDate><atom:link href="https://blog.leanku.com/tags/%E6%A8%A1%E5%9E%8B%E5%BE%AE%E8%B0%83/index.xml" rel="self" type="application/rss+xml" />
    <item>
      <title>模型微调</title>
      <link>https://blog.leanku.com/post/ai/%E6%A8%A1%E5%9E%8B%E5%BE%AE%E8%B0%83/</link>
      <pubDate>Fri, 24 Oct 2025 00:01:01 +0800</pubDate>
      
      <guid>https://blog.leanku.com/post/ai/%E6%A8%A1%E5%9E%8B%E5%BE%AE%E8%B0%83/</guid>
      <description>模型微调 一、模型微调到底是什么 简单来说，模型微调就是让一个已经博学多才的“通才”，通过针对性的“岗前培训”，变成精通某个领域的“专家”。
预训练模型（通才大厨）：就像一位精通全球菜系的米其林大厨，他掌握了所有的基础知识和烹饪技巧，但未必了解你餐厅的特色。 微调（岗前培训）：你想开一家川菜馆，于是让这位大厨用三个月时间，专门学习川菜的食材、调料和烹饪手法。 微调后的模型（川菜大师）：最终，他不仅保留了原有的厨艺基础，更能做出一手地道的麻婆豆腐，成为了川菜领域的专家 。 这个过程直接调整模型的“大脑”（参数），让学到的技能内化为模型自身的能力。相比于RAG（它更像是让大厨在做菜时随时翻阅菜谱），微调后的模型在推理时速度更快，且能深度掌握某种特定的风格或知识 。
二、 核心技术：LoRA——四两拨千斤的微调利器 你可能会担心，重新训练一个包含几十亿甚至上千亿参数的大模型，得需要多强大的计算资源？这正是LoRA（低秩自适应） 技术大显身手的地方。
它的核心思想非常巧妙，我们可以继续用“川菜大厨”的比喻来理解
全量微调：相当于让大厨忘掉过去的一些习惯，全身心地重新学习川菜的每一个步骤。效果最好，但成本极高，需要强大的算力支持。 LoRA微调：我们不动大厨已经固化的核心“厨艺”（预训练权重），而是给他一个轻量级的“川菜秘方贴纸”（低秩矩阵）。这张贴纸只记录了川菜的关键调整点，比如“多加花椒”、“牛油比例提升”。大厨在做川菜时，只需要在关键步骤上参考这张贴纸即可 。 这样做的好处是巨大的：
显存占用低：可训练的参数通常只有不到1%，让在消费级显卡（如RTX 4090）上微调大模型成为可能。
训练速度快：大幅缩短了训练时间。
模型性能高：在绝大多数任务上，效果可以媲美全量微调。
QLoRA 则是LoRA的进阶版，它先把基础模型“压缩”（量化）到4位精度，再应用LoRA，进一步降低了硬件门槛。
三、 具体如何实现 理解了原理，我们来看看如何上手。
你完全不需要从零开始写复杂的训练代码。这里有两条清晰的路径：
路径一：使用云端服务（最简单、快速上手） 这是最省心的方式，你只需要准备好数据，在云平台上点点鼠标，就能完成微调。例如华为云的ModelArts Studio，流程大致如下 ：
准备数据：整理好你的训练集（如客户问答对、特定风格的文本等）。
选择模型：在平台界面选择你想要微调的基础模型，例如盘古大模型。
配置任务：选择“微调”训练类型，并可以灵活选择“全量微调”或“LoRA微调” 。然后设置一些基本参数，如：
学习率：决定模型参数更新的幅度，通常设为很小的值如 2e-5 。
训练轮数：整个数据集被训练的遍数，通常设为 3 以避免过拟合。
数据批量大小：每次处理的数据量，根据你的资源情况设定。
启动训练：提交任务，等待训练完成。过程中可以观察损失值（Loss） 曲线，它应该呈下降趋势，代表模型在有效学习。
部署使用：训练完成后，平台会自动生成一个微调后的模型版本，你可以像调用普通API一样，通过PHP代码来使用这个专属模型。
路径二：使用本地开源工具（更灵活、适合动手实践） 如果你想在自己的电脑上体验整个过程，Ollama + Python是一个非常棒的组合，它让微调变得异常简单 。步骤如下：
1. 安装Ollama 参考另一篇 Ollama搭建本地
我们选择一个轻量级模型，普通电脑也能流畅运行
ollama pull llama2 2. 准备微调数据 微调的核心是数据。我们将创建一个非常简单的数据集，让模型学习用莎士比亚的风格回答问题。
2.1 创建项目目录 在合适的位置新建一个文件夹：
mkdir ollama-finetune-demo cd ollama-finetune-demo 2.2 创建Python虚拟环境</description>
    </item>
    
  </channel>
</rss>
