diff --git a/README.md b/README.md index 7473f91..5da87a8 100644 --- a/README.md +++ b/README.md @@ -169,6 +169,8 @@ WeKnora 支持将文档转化为知识图谱,展示文档中不同段落之间 ## 📘 文档 +常见问题排查:[常见问题排查](./docs/QA.md) + 详细接口说明请参考:[API 文档](./docs/API.md) ## 🧭 开发指南 diff --git a/docs/QA.md b/docs/QA.md new file mode 100644 index 0000000..5913a68 --- /dev/null +++ b/docs/QA.md @@ -0,0 +1,104 @@ +# 常见问题 + +## 1. 如何查看日志? +```bash +# 查看 主服务 日志 +docker exec -it WeKnora-app tail -f /var/log/WeKnora.log + +# 查看 文档解析模块 日志 +docker exec -it WeKnora-docreader tail -f /var/log/docreader.log +``` + +## 2. 如何启动和停止服务? +```bash +# 启动服务 +./scripts/start_all.sh + +# 停止服务 +./scripts/start_all.sh --stop + +# 清空数据库 +./scripts/start_all.sh --stop && make clean-db +``` + +## 3. 服务启动后无法正常上传文档? + +通常是Embedding模型和对话模型没有正确被设置导致。按照以下步骤进行排查 + +1. 查看`.env`配置中的模型信息是否配置完整,其中如果使用ollama访问本地模型,需要确保本地ollama服务正常运行,同时在`.env`中的如下环境变量需要正确设置: +```bash +# LLM Model +INIT_LLM_MODEL_NAME=your_llm_model +# Embedding Model +INIT_EMBEDDING_MODEL_NAME=your_embedding_model +# Embedding模型向量维度 +INIT_EMBEDDING_MODEL_DIMENSION=your_embedding_model_dimension +# Embedding模型的ID,通常是一个字符串 +INIT_EMBEDDING_MODEL_ID=your_embedding_model_id +``` + +如果是通过remote api访问模型,则需要额外提供对应的`BASE_URL`和`API_KEY`: +```bash +# LLM模型的访问地址 +INIT_LLM_MODEL_BASE_URL=your_llm_model_base_url +# LLM模型的API密钥,如果需要身份验证,可以设置 +INIT_LLM_MODEL_API_KEY=your_llm_model_api_key +# Embedding模型的访问地址 +INIT_EMBEDDING_MODEL_BASE_URL=your_embedding_model_base_url +# Embedding模型的API密钥,如果需要身份验证,可以设置 +INIT_EMBEDDING_MODEL_API_KEY=your_embedding_model_api_key +``` + +当需要重排序功能时,需要额外配置Rerank模型,具体配置如下: +```bash +# 使用的Rerank模型名称 +INIT_RERANK_MODEL_NAME=your_rerank_model_name +# Rerank模型的访问地址 +INIT_RERANK_MODEL_BASE_URL=your_rerank_model_base_url +# Rerank模型的API密钥,如果需要身份验证,可以设置 +INIT_RERANK_MODEL_API_KEY=your_rerank_model_api_key +``` + +2. 查看主服务日志,是否有`ERROR`日志输出 + +## 4. 如何开启多模态功能? +1. 确保 `.env` 如下配置被正确设置: +```bash +# VLM_MODEL_NAME 使用的多模态模型名称 +VLM_MODEL_NAME=your_vlm_model_name + +# VLM_MODEL_BASE_URL 使用的多模态模型访问地址 +VLM_MODEL_BASE_URL=your_vlm_model_base_url + +# VLM_MODEL_API_KEY 使用的多模态模型API密钥 +VLM_MODEL_API_KEY=your_vlm_model_api_key +``` +注:多模态大模型当前仅支持remote api访问,固需要提供`VLM_MODEL_BASE_URL`和`VLM_MODEL_API_KEY` + +2. 解析后的文件需要上传到COS中,确保 `.env` 中 `COS` 信息正确设置: +```bash +# 腾讯云COS的访问密钥ID +COS_SECRET_ID=your_cos_secret_id + +# 腾讯云COS的密钥 +COS_SECRET_KEY=your_cos_secret_key + +# 腾讯云COS的区域,例如 ap-guangzhou +COS_REGION=your_cos_region + +# 腾讯云COS的桶名称 +COS_BUCKET_NAME=your_cos_bucket_name + +# 腾讯云COS的应用ID +COS_APP_ID=your_cos_app_id + +# 腾讯云COS的路径前缀,用于存储文件 +COS_PATH_PREFIX=your_cos_path_prefix +``` +重要:务必将COS中文件的权限设置为**公有读**,否则文档解析模块无法正常解析文件 + +3. 查看文档解析模块日志,查看OCR和Caption是否正确解析和打印 + + +## P.S. +如果以上方式未解决问题,请在issue中描述您的问题,并提供必要的日志信息辅助我们进行问题排查 \ No newline at end of file