你的微信有没有一个许久不联系的人,但是你却不断打开TA的对话框,反复翻看。如果有一个工具,可以模仿TA说话的语气、风格,懂你的梗,甚至可以给你发语音,你会去使用吗?最近,一个名为 WeClone 的开源项目就让这个科幻般的想法照进了现实!
https://github.com/xming521/WeClone

图片

简单来说,WeClone 是个还挺酷的。它能巧妙地利用你日积月累的微信聊天记录,对诸如 Qwen2.5-7B 这样先进的大语言模型(LLM)进行“私人订制”般的微调。更赞的是,它采用了 LoRA (Low-Rank Adaptation) 技术,这意味着你不需要一台超级计算机,也能在相对较低的资源消耗下,训练出一个高度个性化的 AI 克隆人。从导出聊天记录、格式化数据,到启动微调进程,理论上,你就能拥有一个数字版的“聊天对象”,让它在赛博空间延续你和喜欢的人聊天艺术,甚至可以克隆你自己,让你左右互搏。
图片

听起来是不是已经让你摩拳擦掌,迫不及待想拥有自己的“微信克隆人”了?然而,就像许多前沿的AI项目一样,从“哇哦!”到“终于搞定了!”,中间往往横亘着一座名为“环境配置”的喜马拉雅山。WeClone 项目虽然很贴心地推荐使用 uv 来管理 Python 环境——这无疑比传统的 venv + pip 组合拳优雅了不少——但对于不少跃跃欲试的朋友来说,Python 的版本兼容、层出不穷的依赖库、大语言模型那娇气的胃口,以及可能涉及到的 GPU 驱动和 CUDA 配置…… 呃,是不是已经开始头大了?难道想拥有一个自己的AI克隆人,就必须先成为半个运维专家吗?

别急,今天,我正是要为被这些“拦路虎”劝退的你,带来一剂“速效救心丸”……

ServBay:WeClone 部署的理想伙伴

就在我们为这些环境配置难题挠头之际,一款强大的工具——ServBay,带着它的“全家桶”向我们走来。ServBay 可不仅仅是一个简单的本地 Web 服务器管理软件,它更像是一个为开发者精心打造的一站式本地应用开发环境万金油,而它恰好能完美解决 WeClone 部署过程中的诸多痛点。那么,ServBay 是如何施展它的“魔法”的呢?

  • 多版本 Python,一键就绪

还记得为选择哪个 Python 版本、如何隔离环境而烦恼吗?
ServBay 内置了从 Python 3.8 到最新稳定版的多个 Python 版本,供你一键切换。想为 WeClone 准备一个纯净、独立的 Python 3.14 环境在 ServBay 里点几下鼠标,瞬间搞定!再也不用担心系统自带 Python 或其他项目环境的干扰,为 WeClone 提供了一个坚如磐石的 Python 运行基础。

图片

  • 依赖管理?小菜一碟!

有了 ServBay 提供的隔离 Python 环境作为坚实后盾,无论是使用传统的 pip 还是 WeClone 推荐的 uv pip install -r requirements.txt,依赖包的安装过程都会变得异常清爽和稳定。那些令人头疼的版本冲突、依赖地狱,在 ServBay 的庇护下,将大幅减少。你只需激活 ServBay 为你准备好的 Python 环境,然后放心大胆地安装 WeClone 所需的“装备”即可。

  • 为大模型量身打造的“温床”

运行像 Qwen2.5-7B 这样的大语言模型,对环境的稳定性和纯净度有着更高的要求。ServBay 确保了你的 Python 运行时纯净无污染,不需要复杂的配置。这意味着你可以把宝贵的精力从繁琐的环境配置中解放出来,专注于模型微调的核心乐趣——让你的微信克隆人早日“诞生”。ServBay 就像是为你的大模型项目提供了一个稳定可靠的“发射台”。

  • 一站式体验,效率起飞
    更棒的是,ServBay 将这一切都整合在了一个统一的界面中。无需在多个终端窗口、不同的环境管理工具之间来回切换,一站式的体验显著提升了我们的开发效率。从启动服务到管理 Python 版本,再到打开项目终端准备运行 WeClone 的脚本,一切尽在掌握,行云流水。

可以说,ServBay 就像是为 WeClone 量身打造的“神助攻”,它扫清了部署道路上的诸多障碍,让我们可以更纯粹地享受创造 AI 克隆人的乐趣。接下来,就让我们看看如何利用 ServBay,一步步将 WeClone 部署起来!

实战教程:通过 ServBay 安装和运行 WeClone

理论说了这么多,是时候撸起袖子,看看 ServBay 如何让 WeClone 的部署变得触手可及。下面,我将一步步带你完成整个过程。

准备工作:工欲善其事,必先利其器

官方说要cuda安装,但NVIDIA已明确停止对macOS的CUDA支持,直接忽略就好。

安装 ServBay:首先,请确保你的电脑上已经安装了 ServBay。
如果还没有,请前往 ServBay 官网下载并安装最新版本(https://www.servbay.com/download)。

步骤一:在 ServBay 中为 WeClone 配置专属 Python 环境

这是 ServBay 大显身手的第一个关键环节!

打开 ServBay:启动 ServBay 应用程序。

选择Python 版本:

  • 在 ServBay 的主界面,左侧找到“软件包”点击进入
  • Python 版本管理。直接点击需要的版本下载即可
  • 图片

验证 Python 环境:

终端输入Python --verion,出来了Python的版本号,说明环境已准备就绪.
图片

步骤二:获取 WeClone 项目代码并安装依赖

现在,ServBay 已经为你铺平了 Python 环境的道路。直接可以获取 WeClone 项目代码并安装。

git clone https://github.com/xming521/WeClone.git
cd WeClone
uv venv .venv --python=3.10
source .venv/bin/activate 
uv pip install --group main -e . 

将配置文件模板复制一份并重命名为settings.jsonc,后续配置修改在此文件进行。

cp settings.template.jsonc settings.jsonc

训练以及推理相关配置统一在文件settings.jsonc

步骤三:模型准备

项目默认使用Qwen2.5-7B模型,LoRA方法对sft阶段微调,大约需要16GB显存。那既然现在ServBay已经支持千问Qwen3,我们就用Qwen3-8B模型吧。

下载Ollama在

  • ServBay 的主界面,左侧找到“软件包”
  • 找到Ollama,ServBay支持了最新版本的Ollama 0.7,直接点击需要的版本下载即可

图片

安装Qwen3-8B模型在

  • ServBay菜单找到“AI”
  • 找到Qwen3:8b模型,点击下载
    图片

到了这一步,所有的准备工作都已经完成,接下来就可以开始处理聊天记录、并微调模型了。

步骤四:深入 WeClone:数据、训练与推理实战

  1. 数据准备:提取你的微信聊天记录
    ⚠️注意:请一定注意保护个人隐私,不要泄露个人信息!⚠️

导出自己的微信聊天记录存放数据:将聊天记录整体移动到 WeClone 项目的 ./dataset 目录下。
最终结构应为 ./dataset/csv/联系人A/聊天记录.csv, ./dataset/csv/联系人B/聊天记录.csv 等。

  1. 数据预处理:清洗与格式化
    默认处理:WeClone 项目默认会去除数据中的手机号、身份证号、邮箱和网址。
    自定义过滤:你可以在 settings.jsonc 文件中找到 blocked_words 禁用词词库,自行添加需要过滤的词句(包含禁用词的整句将被移除)。

    weclone-cli make-dataset

    当前主要支持时间窗口策略,通过 settings.jsonc 中的 make_dataset_args 进行配置

  2. single_combine_time_window:将指定时间窗口内的单人连续消息通过逗号连接合并为一句。
  3. -qa_match_time_window:根据时间窗口匹配问答对。
  4. 配置参数并微调模型:打造你的专属AI
  • 修改模型与参数:在 settings.jsonc 文件中,你可以修改 model_name_or_pathtemplate 来选择使用本地已下载好的其他兼容模型。
  • 通过调整 per_device_train_batch_size 以及 gradient_accumulation_steps 来控制显存占用。根据你的数据集数量和质量,可以修改 train_sft_args 中的 num_train_epochs(训练轮数)、lora_rank、lora_dropout 等超参数。

单卡训练:
在终端中执行:

weclone-cli train-sft

效果验证与推理:
与你的克隆人对话微调完成后,就可以测试你的 AI 克隆人了!

  • 使用浏览器 Demo 简单推理:
    这一步可以帮助你测试并找到合适的 temperaturetop_p 等推理参数。确定后,可以修改 settings.jsonc 中的 infer_args 供后续使用。
    在 ServBay 终端中执行:

    weclone-cli webchat-demo

    之后在浏览器中打开相应的地址即可与模型互动。

使用接口进行推理:
启动一个 API 服务来进行推理:

weclone-cli server

使用常见聊天问题测试:
WeClone 提供了一套不包含询问个人信息,仅有日常聊天的问题集来测试模型。

首先确保推理服务已启动 (weclone-cli server),然后在另一个 ServBay 终端中执行:

weclone-cli test-model

测试结果将保存在 test_result-my.txt 文件中。

微调效果

以下是官方给出的使用Qwen2.5-14B-Instruct模型,大概3万条处理后的有效数据,loss降到了3.5左右的效果。
图片

图片

后续还可以部署到QQ、微信上,真正“复活”聊天对象,或者克隆一个自己出来,作为自己的私人助理,专门应付上级领导 代替你回复消息,处理日常事务。

总结

WeClone是一个有争议的项目,但也不能阻止它的爆火。ServBay,则扮演了那位不可或缺的“神队友”,它凭借其一键式的 Python 环境管理、对 Qwen3 等大模型运行环境的稳定支持,以及整体的便捷性和隔离性,彻底将部署和体验 WeClone 的门槛拉到了“新手友好”的级别,大大降低了AI使用的门槛。你不再需要成为环境配置专家,就能轻松踏上打造专属 AI 分身的奇妙旅程。


烦恼的沙发
1 声望0 粉丝

一个写代码的民工,社会上的畜生