工具类
# py12306
py12306 购票助手,抢票就靠它了!
# 节点订阅
# SD webui
SD webui,过于知名的画图 ai 了,主打一个测试服务器性能
# 微信开发者工具
微信小程序主打一个密闭不透风,我们只能使用特殊办法来进行调试了,最好使用小号来尝试
# 通义千问 api
# 基本使用
个人感觉阿里的通义千问算是国内做的非常好的大模型,并且开源,有时间确实可以部署在服务器上玩玩
这里介绍 api 的一些使用方法
官方 api 获取: https://dashscope.console.aliyun.com/
或者使用 Qwen AI Free 服务
不过这里声明,我们只是在讨论知识的可行性,逆向 api 有时候确实不太稳定,有能力还是支持官方
我是在个人云服务器上部署的,感觉这里的坑倒还好
首先安装 node.js
这里服务器上就通过 NodeSource 仓库安装:
curl -fsSL https://deb.nodesource.com/setup_lts.x | sudo -E bash -
sudo apt-get install -y nodejs
查看版本
node -v
npm -v
部署教程直接看 github 的教程
测试 api 效果,我们创建一个qwen.py
from openai import OpenAI
token = '你获取的token值'
client = OpenAI(
base_url='http://localhost:8000/v1', api_key=token)
messages = []
while True:
a = input("User: ")
messages.append({"role": "user", "content": a})
response = client.chat.completions.create(
model="qwen",
messages=messages
)
b = response.choices[0].message.content
b = b.replace("\n", "")
print("AI: " + b)
messages.append({"role": "assistant", "content": b})
# 反向代理
一个是安全性更有保障,如果在一些 https 的网站上调用BASE_URL
的话,也必须使用 https 的链接才行
这里我们使用nginx
来进行反向代理:
首先在自己的云服务器商申请 ssl 证书,放置在我们的服务器上
安装 nginx
sudo apt-get install nginx
配置 ngnix.conf 文件
vim /etc/nginx/nginx.conf
我的配置文件如下,加上了对大模型获取的优化
user www-data;
worker_processes auto;
pid /run/nginx.pid;
include /etc/nginx/modules-enabled/*.conf;
events {
worker_connections 768;
# multi_accept on;
}
http {
##
# Basic Settings
##
sendfile on;
types_hash_max_size 2048;
# 关闭代理缓冲。当设置为off时,Nginx会立即将客户端请求发送到后端服务器,并立即将从后端服务器接收到的响应发送回客户端。
proxy_buffering off;
# 启用分块传输编码。分块传输编码允许服务器为动态生成的内容分块发送数据,而不需要预先知道内容的大小。
chunked_transfer_encoding on;
# 开启TCP_NOPUSH,这告诉Nginx在数据包发送到客户端之前,尽可能地发送数据。这通常在sendfile使用时配合使用,可以提高网络效率。
tcp_nopush on;
# 开启TCP_NODELAY,这告诉Nginx不延迟发送数据,立即发送小数据包。在某些情况下,这可以减少网络的延迟。
tcp_nodelay on;
# 设置保持连接的超时时间,这里设置为120秒。如果在这段时间内,客户端和服务器之间没有进一步的通信,连接将被关闭。
keepalive_timeout 120;
# server_tokens off;
# server_names_hash_bucket_size 64;
# server_name_in_redirect off;
include /etc/nginx/mime.types;
default_type application/octet-stream;
##
# SSL Settings
##
ssl_certificate /etc/nginx/cert/xxx.com.crt;
ssl_certificate_key /etc/nginx/cert/xxx.com.key;
ssl_session_timeout 5m;
ssl_ciphers ECDHE-RSA-AES128-GCM-SHA256:ECDHE:ECDH:AES:HIGH:!NULL:!aNULL:!MD5:!ADH:!RC4;
ssl_protocols TLSv1 TLSv1.1 TLSv1.2 TLSv1.3; # Dropping SSLv3, ref: POODLE
ssl_prefer_server_ciphers on;
##
# Logging Settings
##
access_log /var/log/nginx/access.log;
error_log /var/log/nginx/error.log;
##
# Gzip Settings
##
gzip on;
# gzip_vary on;
# gzip_proxied any;
# gzip_comp_level 6;
# gzip_buffers 16 8k;
# gzip_http_version 1.1;
# gzip_types text/plain text/css application/json application/javascript text/xml application/xml application/xml+rss text/javascript;
##
# Virtual Host Configs
##
include /etc/nginx/conf.d/*.conf;
include /etc/nginx/sites-enabled/*;
}
这里 vim 打开的是只读文件,如果我们想保存的话键入如下指令
:w !sudo tee %
我们可以在/etc/nginx/sites-available
下新建一个文件chatgpt
其配置如下,http 在 8000 端口,https 在 8001 端口
server {
listen 8000;
server_name 域名;
return 301 https://$host:8001$request_uri;
}
server {
listen 8001 ssl;
server_name 域名;
location / {
proxy_pass http://域名:8000;
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
proxy_set_header X-Forwarded-Proto https;
proxy_set_header X-Forwarded-Port 8001;
}
}
启用
# 启用配置
sudo ln -s /etc/nginx/sites-available/chatgpt /etc/nginx/sites-enabled/
# 检查配置文件是否正确
sudo nginx -t
# 重启 nginx 服务
sudo nginx -s reload
# ChatGPT Next Web
我们在拿到了 api 之后,可以部署我们的跨平台私人 ChatGPT 应用了
使用 vercel 进行部署,还是挺简单的,最大的坑就是如果使用的BASE_URL
是 http 的链接,因为部署后是 https 的网站,不兼容。BASE_URL
不需要带v1
要么我们去浏览器设置里面(网页链接左侧),找到网站设置-不安全内容将其设置为允许
要么我们将自己的BASE_URL
链接转换为 https 的我们使用反向代理,见上
网站类
# Hugo
# qq 推送
建站评论信息 qq 推送,使用 Qmsg 酱进行推送
# Vercel
vercel 建站,用于国内访问速度加快的官方 DNS 解析:cname-china.vercel-dns.com
还可以使用个人的 Vercel CDN 加速,国内访问速度更快
Vercel 官方提供的缓存进行加速:
{
"headers": [
{
"source": "/sw.js",
"headers": [
{
"key": "Cache-Control",
"value": "public, max-age=0, must-revalidate"
}
]
},
{
"source": "(.*)",
"headers": [
{
"key": "Cache-Control",
"value": "public, s-maxage=86400, max-age=86400"
},
{
"key": "Vercel-CDN-Cache-Control",
"value": "max-age=3600"
}
]
}
]
}
# jsDelivr CDN
jsDelivr 加速,GitHub 文件访问改为https://cdn.jsdelivr.com/gh/用户名/仓库名
进行加速