Open-LLM-VTuber deploy

Open-LLM-VTuber (https://github.com/Open-LLM-VTuber/Open-LLM-VTuber) 项目的官方介绍为 :

Open-LLM-VTuber 是一款独特的语音交互 AI 伴侣,它不仅支持实时语音对话和视觉感知,还配备了生动的 Live2D 形象。所有功能都可以在你的电脑上完全离线运行!

我个人认为他不只是可以用来做 AI 伴侣

这是其官方的简易部署文档 https://docs.llmvtuber.com/docs/quick-start/

如果你愿意你也可以看本篇文档来完成简易部署

以下是其官方的提醒 (格式有改动, 连接并未改动) :

现在确保你有 git, ffmpeg, uv

1. 获取项目代码

从项目的 Release 页面, 下载长得像 Open-LLM-VTuber-v1.x.x.zip 的 zip 文件, 并将解压后将文件放置在一个路径不包含中文的合适位置

2. 安装项目依赖

创建环境并安装依赖 :

# 确保你在项目根目录下运行这个命令
uv sync
# 这个命令将创建一个 `.venv` 虚拟环境

接着, 我们运行一下主程序来生成预设的配置文件

uv run run_server.py

然后按下 Ctrl + C 退出程序

官方提醒 :

v1.1.0 版本开始,conf.yaml 文件可能不会自动出现在项目目录下。请复制 config_templates 目录下的 conf.default.yamlconf.ZH.default.yaml 文件到项目根目录并重命名为 conf.yaml

或者,你也可以通过运行主程序 uv run run_server.py 并使用 Ctrl + C 退出程序来生成配置文件(不推荐使用这个方法)。请注意,退出操作需要及时执行,否则程序会开始下载模型文件(此刻退出可能会导致下次无法启动,解决方案为删除 models/ 下的全部文件)。

3. 配置 LLM

我们以 Ollama 为例进行配置, 其他选项请参考LLM 配置指南

官方提醒 :

如果你不想使用 Ollama / 在 Ollama 的配置上遇到了难以解决的问题,本项目也支持:

OpenAI 兼容 API

OpenAI 官方 API

Claude

Gemini

Mistral

智谱

DeepSeek

LM Studio(类似 Ollama,使用更简单)

vLLM(性能更好,配置较复杂)

llama.cpp(直接运行 .gguf 格式模型)

以及更多 (大部分的 LLM 推理后端和API都支持 OpenAI 格式,可以直接接入本项目)

更多信息请参考LLM 配置指南

确保你有 ollama

拉取一个模型 (以 gemma3:12B 为例) :

ollama pull gemma3:12B

查看已安装的模型 :

ollama ls

修改配置文件

官方提示 :

如果你的项目目录下没有 conf.yaml 文件,请运行一次项目主程序 uv run run_server.py,生成配置文件,然后退出。

编辑 conf.yaml :

  1. basic_memory_agent 下的 llm_provider 设置为 ollama_llm

  2. 调整 llm_configs 选项下的 ollama_llm 下的设置:

关于配置文件的详细说明,可以参考 用户指南/配置文件

4. 配置其他模块

本项目 conf.yaml 默认配置中使用了 sherpa-onnx-asr (SenseVoiceSmall) 和 edgeTTS,并默认关闭翻译功能,你可以不用进行修改。

或者你可以参考 ASR 配置指南TTS 配置指南Translator 配置指南 进行修改。

5. 启动项目

运行后端服务 :

uv run run_server.py
# 第一次运行可能会下载一些模型,导致等待时间较久。

运行成功后,浏览器访问 http://localhost:12393 即可打开 Web 界面。

官方提示 :

关于桌面应用

如果你更喜欢 Electron 应用 (窗口模式 + 桌宠模式),可以从 Open-LLM-VTuber-Web Releases 下载对应平台 Electron 客户端,可以在后端服务运行的前提下直接使用。但你有可能会遇到因为没有签名验证而导致的安全警告,具体情况和解决方案请查看 模式介绍

有关前端的更多信息,请参考 前端使用指南