从github下载安装包
创建一个新的conda环境
conda create -n gpt python=3.9
conda activate gpt
pip install -r requirements.txt -i https://mirrors.aliyun.com/pypi/simple/
可以临时使用阿里云的python源,也可以修改本地永久使用阿里云的源。
#获取当前的python源设置
pip config get global.index-url
# 修改本地的python源为阿里云的源
pip config set global.index-url https://mirrors.aliyun.com/pypi/simple
修改config.py 配置openai的密钥和模型类型
API_KEY = "fk1234567"
这里填上你的密钥,我申请的是api2d的账户,所以此处是fk开头,也支持其他流行模型的密钥。
LLM_MODEL = "gpt-3.5-turbo"
这里修改为LLM_MODEL = "api2d-gpt-3.5-turbo"
因为我的是api2d的密钥,所以修改为api2d开头的模型
还支持的模型类型,可以看下面的说明。
AVAIL_LLM_MODELS = ["gpt-3.5-turbo-16k", "gpt-3.5-turbo", "azure-gpt-3.5", "api2d-gpt-3.5-turbo",
"gpt-4", "api2d-gpt-4", "chatglm", "moss", "newbing", "stack-claude"]
# P.S. 其他可用的模型还包括 ["qianfan", "llama2", "qwen", "gpt-3.5-turbo-0613", "gpt-3.5-turbo-16k-0613",
# "spark", "sparkv2", "chatglm_onnx", "claude-1-100k", "claude-2", "internlm", "jittorllms_pangualpha", "jittorllms_llama"]
修改main.py第14行 配置固定端口(可以不修改,这样端口是随机的)
PORT = find_free_port() if WEB_PORT <= 0 else WEB_PORT
修改为PORT = 48499
原本的代码是自动寻找空闲端口,修改后就是使用固定的488499端口。
开启主程序
python main.py
访问界面
上面成功运行主程序之后,会输出你需要访问的网址。
我是修改端口为固定的48499端口,这样每次我直接访问http://localhost:48499/
即可访问。
网络主机的设置问题
如果安装gpt-academic的主机是在国外,则可以直接使用了。
如果主机是在内网无法访问互联网,则可能需要设置反向代理。 修改config.py包含API_URL_REDIRECT
的行。把它重定向为可以上网的机器即可。
如果主机在国内,可以正常访问互联网,则可以设置正向代理或不设置也行。不设置的话,有时候会因为网络问题无法正常使用。
如果你直接安装在本地机器上,只需要找到梯子的本地端口即可,修改config.py
里梯子为这个端口即可。
如果你是安装的国内服务器上,你需要使用的是服务器的梯子,而不是你本地的梯子。本地的梯子端口和服务器上的不一样。
网友评论