WeClone

125 0 0

WeClone 是一款基于微信聊天记录训练个性化大语言模型(LLM)的开源工具,旨在通过深度学习技术为用户提供高度拟真的数字分身。

收录时间:
2024-07-13

WeClone 是一个开源项目,利用微信聊天记录与语音数据,结合大语言模型微调与语音合成技术,生成可模拟用户语言风格与声音特征的数字分身。该系统通过分析用户在社交平台上的历史对话,训练出能够复现其表达习惯、语气特征乃至常用口头禅的个性化AI模型,并支持生成高度相似的语音内容。

WeClone官网入口网址:https://www.weclone.love

WeClone插图

核心功能

WeClone 默认采用 ChatGLM3-6B 作为基础模型,支持从微信、QQ、Telegram、企业微信及飞书等平台提取聊天数据,用于构建专属对话模型。项目近期新增语音克隆能力,允许用户以微信语音消息为样本,生成自然流畅的合成语音。目前项目处于活跃开发阶段,效果受训练数据规模与质量影响。

技术实现

数据处理:推荐使用 PyWxDump 工具导出微信聊天记录为 CSV 格式,并通过命令行工具清洗数据。系统支持关键词过滤、敏感信息屏蔽及基于大模型的对话质量评分,确保训练数据的相关性与安全性。

模型微调:采用 LoRA 微调策略,在有限显存条件下完成高效训练。根据模型规模与精度设置,显存需求范围从 4GB 至 120GB 不等。建议使用 uv 环境管理器配置 Python 依赖,音频克隆功能需额外安装相关组件。

语音合成:提供 Spark-TTS 与 Llasa 两种方案。Spark-TTS 资源占用较低,0.5B 模型仅需 4GB 显存,支持最长 15 秒的语音输入;Llasa 则提供 1B(9GB 显存)与 3B(16GB 显存)版本,适用于对音质要求更高的场景。

部署与交互:集成 AstrBot 框架,可将训练完成的模型部署为跨平台聊天机器人,接入微信、Telegram 等即时通讯工具,实现自动化实时对话。项目明确要求用户遵守法律法规,禁止用于侵犯隐私或非法测试等用途。

主要特点

  • 运行门槛合理:普通设备配备 16GB 显存即可运行基础功能,模块化架构便于开发者按需调用或扩展。
  • 高度个性化:支持精细调整语言风格,用户可自定义过滤词库,控制训练数据范围,兼顾表达还原度与隐私保护。
  • 本地化保障:所有数据处理与模型训练可在本地完成,内置敏感信息清除机制,减少数据外泄风险。

应用前景

WeClone 的潜在应用场景涵盖个人数字存档、客户服务自动化、虚拟社交陪伴等领域。个人用户可借此保存独特的沟通方式,企业则可构建符合品牌语调的智能客服。项目后续计划引入检索增强生成(RAG)技术以提升知识准确性,并探索图像理解、视频处理等多模态能力,进一步丰富交互形式。

作为一项前沿的数字身份复现工具,WeClone 在技术创新的同时也强调伦理边界,提醒用户在使用过程中审慎对待隐私与授权问题,确保技术应用符合社会规范。

相关导航