From ec713105882dc956ca37c6de4ebdce7a339d2ec4 Mon Sep 17 00:00:00 2001 From: Zihao Xu Date: Tue, 20 Jan 2026 23:35:12 -0800 Subject: [PATCH] docs: update LLM config section in README (#80) * docs: update LLM config section in README * fix: use deepseek as example (matches default config) --- README.md | 22 +++++++++++++--------- 1 file changed, 13 insertions(+), 9 deletions(-) diff --git a/README.md b/README.md index 2ca392e..d87f7d4 100644 --- a/README.md +++ b/README.md @@ -124,19 +124,23 @@ ``` 3. 配置LLM: - 在 `static/config.yml` 中配置LLM参数(OpenAI格式): - ```yaml - llm: - key: "your-api-key-here" # 你的API密钥 - base_url: "https://api.xxx.com" # API地址 - model_name: "normal_model_name" # 智能模型名称 - fast_model_name: "fast_model_name" # 快速模型名称 - ``` - 也支持在前端直接配入LLM参数: + **推荐方式:在前端直接配置(支持快速填充预设)** 前端LLM配置 + 也可以在 `static/local_config.yml` 中手动配置(OpenAI兼容格式): + ```yaml + llm: + base_url: https://api.deepseek.com # API地址 + key: your-api-key-here # 你的API密钥 + model_name: deepseek-chat # 智能模型名称 + fast_model_name: deepseek-chat # 快速模型名称 + mode: default # 运行模式 (default/normal/fast) + ``` + + **本地部署 (Ollama):** 也支持对接本地 Ollama,在前端选择 "Ollama (本地)" 预设即可。 + 4. 运行: ```bash # 启动服务 (推荐开发模式,会自动启动前端)