更新Latex模块的docker-compose
This commit is contained in:
parent
9f0cf9fb2b
commit
280e14d7b7
19
README.md
19
README.md
@ -97,7 +97,7 @@ cd gpt_academic
|
|||||||
|
|
||||||
2. 配置API_KEY
|
2. 配置API_KEY
|
||||||
|
|
||||||
在`config.py`中,配置API KEY等设置,[特殊网络环境设置](https://github.com/binary-husky/gpt_academic/issues/1) 。
|
在`config.py`中,配置API KEY等设置,[点击查看特殊网络环境设置方法](https://github.com/binary-husky/gpt_academic/issues/1) 。
|
||||||
|
|
||||||
(P.S. 程序运行时会优先检查是否存在名为`config_private.py`的私密配置文件,并用其中的配置覆盖`config.py`的同名配置。因此,如果您能理解我们的配置读取逻辑,我们强烈建议您在`config.py`旁边创建一个名为`config_private.py`的新配置文件,并把`config.py`中的配置转移(复制)到`config_private.py`中。`config_private.py`不受git管控,可以让您的隐私信息更加安全。P.S.项目同样支持通过`环境变量`配置大多数选项,环境变量的书写格式参考`docker-compose`文件。读取优先级: `环境变量` > `config_private.py` > `config.py`)
|
(P.S. 程序运行时会优先检查是否存在名为`config_private.py`的私密配置文件,并用其中的配置覆盖`config.py`的同名配置。因此,如果您能理解我们的配置读取逻辑,我们强烈建议您在`config.py`旁边创建一个名为`config_private.py`的新配置文件,并把`config.py`中的配置转移(复制)到`config_private.py`中。`config_private.py`不受git管控,可以让您的隐私信息更加安全。P.S.项目同样支持通过`环境变量`配置大多数选项,环境变量的书写格式参考`docker-compose`文件。读取优先级: `环境变量` > `config_private.py` > `config.py`)
|
||||||
|
|
||||||
@ -140,15 +140,9 @@ AVAIL_LLM_MODELS = ["gpt-3.5-turbo", "api2d-gpt-3.5-turbo", "gpt-4", "api2d-gpt-
|
|||||||
python main.py
|
python main.py
|
||||||
```
|
```
|
||||||
|
|
||||||
5. 测试函数插件
|
|
||||||
```
|
|
||||||
- 测试函数插件模板函数(要求gpt回答历史上的今天发生了什么),您可以根据此函数为模板,实现更复杂的功能
|
|
||||||
点击 "[函数插件模板Demo] 历史上的今天"
|
|
||||||
```
|
|
||||||
|
|
||||||
## 安装-方法2:使用Docker
|
## 安装-方法2:使用Docker
|
||||||
|
|
||||||
1. 仅ChatGPT(推荐大多数人选择)
|
1. 仅ChatGPT(推荐大多数人选择,等价于docker-compose方案1)
|
||||||
|
|
||||||
``` sh
|
``` sh
|
||||||
git clone https://github.com/binary-husky/gpt_academic.git # 下载项目
|
git clone https://github.com/binary-husky/gpt_academic.git # 下载项目
|
||||||
@ -161,26 +155,25 @@ docker run --rm -it --net=host gpt-academic
|
|||||||
#(最后一步-选择2)在macOS/windows环境下,只能用-p选项将容器上的端口(例如50923)暴露给主机上的端口
|
#(最后一步-选择2)在macOS/windows环境下,只能用-p选项将容器上的端口(例如50923)暴露给主机上的端口
|
||||||
docker run --rm -it -e WEB_PORT=50923 -p 50923:50923 gpt-academic
|
docker run --rm -it -e WEB_PORT=50923 -p 50923:50923 gpt-academic
|
||||||
```
|
```
|
||||||
P.S. 如果需要依赖Latex的插件功能,请见Wiki
|
P.S. 如果需要依赖Latex的插件功能,请见Wiki。另外,您也可以直接使用docker-compose获取Latex功能(修改docker-compose.yml,保留方案4并删除其他方案)。
|
||||||
|
|
||||||
2. ChatGPT + ChatGLM + MOSS(需要熟悉Docker)
|
2. ChatGPT + ChatGLM + MOSS(需要熟悉Docker)
|
||||||
|
|
||||||
``` sh
|
``` sh
|
||||||
# 修改docker-compose.yml,删除方案1和方案3,保留方案2。修改docker-compose.yml中方案2的配置,参考其中注释即可
|
# 修改docker-compose.yml,保留方案2并删除其他方案。修改docker-compose.yml中方案2的配置,参考其中注释即可
|
||||||
docker-compose up
|
docker-compose up
|
||||||
```
|
```
|
||||||
|
|
||||||
3. ChatGPT + LLAMA + 盘古 + RWKV(需要熟悉Docker)
|
3. ChatGPT + LLAMA + 盘古 + RWKV(需要熟悉Docker)
|
||||||
``` sh
|
``` sh
|
||||||
# 修改docker-compose.yml,删除方案1和方案2,保留方案3。修改docker-compose.yml中方案3的配置,参考其中注释即可
|
# 修改docker-compose.yml,保留方案3并删除其他方案。修改docker-compose.yml中方案3的配置,参考其中注释即可
|
||||||
docker-compose up
|
docker-compose up
|
||||||
```
|
```
|
||||||
|
|
||||||
|
|
||||||
## 安装-方法3:其他部署姿势
|
## 安装-方法3:其他部署姿势
|
||||||
1. 一键运行脚本。
|
1. 一键运行脚本。
|
||||||
完全不熟悉python环境的Windows用户可以下载[Release](https://github.com/binary-husky/gpt_academic/releases)中发布的一键运行脚本安装无本地模型的版本,
|
完全不熟悉python环境的Windows用户可以下载[Release](https://github.com/binary-husky/gpt_academic/releases)中发布的一键运行脚本安装无本地模型的版本。
|
||||||
不建议电脑上已有python的用户采用此方法(在此基础上安装插件的依赖很麻烦)。
|
|
||||||
脚本的贡献来源是[oobabooga](https://github.com/oobabooga/one-click-installers)。
|
脚本的贡献来源是[oobabooga](https://github.com/oobabooga/one-click-installers)。
|
||||||
|
|
||||||
2. 使用docker-compose运行。
|
2. 使用docker-compose运行。
|
||||||
|
@ -103,3 +103,30 @@ services:
|
|||||||
echo '[jittorllms] 正在从github拉取最新代码...' &&
|
echo '[jittorllms] 正在从github拉取最新代码...' &&
|
||||||
git --git-dir=request_llm/jittorllms/.git --work-tree=request_llm/jittorllms pull --force &&
|
git --git-dir=request_llm/jittorllms/.git --work-tree=request_llm/jittorllms pull --force &&
|
||||||
python3 -u main.py"
|
python3 -u main.py"
|
||||||
|
|
||||||
|
|
||||||
|
## ===================================================
|
||||||
|
## 【方案四】 chatgpt + Latex
|
||||||
|
## ===================================================
|
||||||
|
version: '3'
|
||||||
|
services:
|
||||||
|
gpt_academic_with_latex:
|
||||||
|
image: ghcr.io/binary-husky/gpt_academic_with_latex:master
|
||||||
|
environment:
|
||||||
|
# 请查阅 `config.py` 以查看所有的配置信息
|
||||||
|
API_KEY: ' sk-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx '
|
||||||
|
USE_PROXY: ' True '
|
||||||
|
proxies: ' { "http": "socks5h://localhost:10880", "https": "socks5h://localhost:10880", } '
|
||||||
|
LLM_MODEL: ' gpt-3.5-turbo '
|
||||||
|
AVAIL_LLM_MODELS: ' ["gpt-3.5-turbo", "gpt-4"] '
|
||||||
|
LOCAL_MODEL_DEVICE: ' cuda '
|
||||||
|
DEFAULT_WORKER_NUM: ' 10 '
|
||||||
|
WEB_PORT: ' 12303 '
|
||||||
|
|
||||||
|
# 与宿主的网络融合
|
||||||
|
network_mode: "host"
|
||||||
|
|
||||||
|
# 不使用代理网络拉取最新代码
|
||||||
|
command: >
|
||||||
|
bash -c "python3 -u main.py"
|
||||||
|
|
||||||
|
Loading…
x
Reference in New Issue
Block a user