diff --git a/Dockerfile b/Dockerfile index 7371e45..f51befa 100644 --- a/Dockerfile +++ b/Dockerfile @@ -1,34 +1,35 @@ -# 此Dockerfile适用于“无本地模型”的环境构建,如果需要使用chatglm等本地模型或者latex运行依赖,请参考 docker-compose.yml -# 如何构建: 先修改 `config.py`, 然后 `docker build -t gpt-academic . ` -# 如何运行(Linux下): `docker run --rm -it --net=host gpt-academic ` -# 如何运行(其他操作系统,选择任意一个固定端口50923): `docker run --rm -it -e WEB_PORT=50923 -p 50923:50923 gpt-academic ` +# 此Dockerfile适用于“无本地模型”的迷你运行环境构建 +# 如果需要使用chatglm等本地模型或者latex运行依赖,请参考 docker-compose.yml +# - 如何构建: 先修改 `config.py`, 然后 `docker build -t gpt-academic . ` +# - 如何运行(Linux下): `docker run --rm -it --net=host gpt-academic ` +# - 如何运行(其他操作系统,选择任意一个固定端口50923): `docker run --rm -it -e WEB_PORT=50923 -p 50923:50923 gpt-academic ` FROM python:3.11 -# 非必要步骤,更换pip源 +# 非必要步骤,更换pip源 (以下三行,可以删除) RUN echo '[global]' > /etc/pip.conf && \ echo 'index-url = https://mirrors.aliyun.com/pypi/simple/' >> /etc/pip.conf && \ echo 'trusted-host = mirrors.aliyun.com' >> /etc/pip.conf -# 进入工作路径 +# 进入工作路径(必要) WORKDIR /gpt -# 安装大部分依赖,利用Docker缓存加速以后的构建 +# 安装大部分依赖,利用Docker缓存加速以后的构建 (以下三行,可以删除) COPY requirements.txt ./ COPY ./docs/gradio-3.32.6-py3-none-any.whl ./docs/gradio-3.32.6-py3-none-any.whl RUN pip3 install -r requirements.txt -# 装载项目文件,安装剩余依赖 +# 装载项目文件,安装剩余依赖(必要) COPY . . RUN pip3 install -r requirements.txt -# 非必要步骤,用于预热模块 +# 非必要步骤,用于预热模块(可以删除) RUN python3 -c 'from check_proxy import warm_up_modules; warm_up_modules()' -# 启动 +# 启动(必要) CMD ["python3", "-u", "main.py"] diff --git a/README.md b/README.md index 61a1eb0..77ff15e 100644 --- a/README.md +++ b/README.md @@ -1,6 +1,6 @@ > **Note** > -> 2023.10.8: Gradio, Pydantic依赖调整,已修改 `requirements.txt`。请及时**更新代码**,安装依赖时,请严格选择`requirements.txt`中**指定的版本** +> 2023.10.8: Gradio, Pydantic依赖调整,已修改 `requirements.txt`。请及时**更新代码**,安装依赖时,请严格选择`requirements.txt`中**指定的版本**。 > > `pip install -r requirements.txt` @@ -16,7 +16,7 @@ To translate this project to arbitrary language with GPT, read and run [`multi_l > > 1.请注意只有 **高亮** 标识的函数插件(按钮)才支持读取文件,部分插件位于插件区的**下拉菜单**中。另外我们以**最高优先级**欢迎和处理任何新插件的PR。 > -> 2.本项目中每个文件的功能都在[自译解报告`self_analysis.md`](https://github.com/binary-husky/gpt_academic/wiki/GPT‐Academic项目自译解报告)详细说明。随着版本的迭代,您也可以随时自行点击相关函数插件,调用GPT重新生成项目的自我解析报告。常见问题[`wiki`](https://github.com/binary-husky/gpt_academic/wiki)。[安装方法](#installation) | [配置说明](https://github.com/binary-husky/gpt_academic/wiki/%E9%A1%B9%E7%9B%AE%E9%85%8D%E7%BD%AE%E8%AF%B4%E6%98%8E)。 +> 2.本项目中每个文件的功能都在[自译解报告`self_analysis.md`](https://github.com/binary-husky/gpt_academic/wiki/GPT‐Academic项目自译解报告)详细说明。随着版本的迭代,您也可以随时自行点击相关函数插件,调用GPT重新生成项目的自我解析报告。常见问题[`wiki`](https://github.com/binary-husky/gpt_academic/wiki)。[常规安装方法](#installation) | [一键安装脚本](https://github.com/binary-husky/gpt_academic/releases) | [配置说明](https://github.com/binary-husky/gpt_academic/wiki/%E9%A1%B9%E7%9B%AE%E9%85%8D%E7%BD%AE%E8%AF%B4%E6%98%8E)。 > > 3.本项目兼容并鼓励尝试国产大语言模型ChatGLM和Moss等等。支持多个api-key共存,可在配置文件中填写如`API_KEY="openai-key1,openai-key2,azure-key3,api2d-key4"`。需要临时更换`API_KEY`时,在输入区输入临时的`API_KEY`然后回车键提交后即可生效。 diff --git a/docs/GithubAction+NoLocal+Latex b/docs/GithubAction+NoLocal+Latex index cbed50f..be9fda2 100644 --- a/docs/GithubAction+NoLocal+Latex +++ b/docs/GithubAction+NoLocal+Latex @@ -4,9 +4,11 @@ # - 3 运行 docker run -v /home/fuqingxu/arxiv_cache:/root/arxiv_cache --rm -it --net=host gpt-academic-nolocal-latex FROM fuqingxu/python311_texlive_ctex:latest - -# 删除文档文件以节约空间 -rm -rf /usr/local/texlive/2023/texmf-dist/doc +ENV PATH "$PATH:/usr/local/texlive/2022/bin/x86_64-linux" +ENV PATH "$PATH:/usr/local/texlive/2023/bin/x86_64-linux" +ENV PATH "$PATH:/usr/local/texlive/2024/bin/x86_64-linux" +ENV PATH "$PATH:/usr/local/texlive/2025/bin/x86_64-linux" +ENV PATH "$PATH:/usr/local/texlive/2026/bin/x86_64-linux" # 指定路径 WORKDIR /gpt