返回
Featured image of post 好用的程序分享

好用的程序分享

随缘更新,主要是记录一些使用过的比较好用的程序项目

工具类

# py12306

py12306 购票助手,抢票就靠它了!

# 节点订阅

# SD webui

SD webui,过于知名的画图 ai 了,主打一个测试服务器性能

Linux 下 Stable Diffusion 的配置和避坑

# 微信开发者工具

微信小程序主打一个密闭不透风,我们只能使用特殊办法来进行调试了,最好使用小号来尝试

# 通义千问 api

# 基本使用

个人感觉阿里的通义千问算是国内做的非常好的大模型,并且开源,有时间确实可以部署在服务器上玩玩

这里介绍 api 的一些使用方法

官方 api 获取: https://dashscope.console.aliyun.com/

或者使用 Qwen AI Free 服务

不过这里声明,我们只是在讨论知识的可行性,逆向 api 有时候确实不太稳定,有能力还是支持官方

我是在个人云服务器上部署的,感觉这里的坑倒还好

首先安装 node.js

这里服务器上就通过 NodeSource 仓库安装:

curl -fsSL https://deb.nodesource.com/setup_lts.x | sudo -E bash -
sudo apt-get install -y nodejs

查看版本

node -v
npm -v

部署教程直接看 github 的教程

测试 api 效果,我们创建一个qwen.py

from openai import OpenAI

token = '你获取的token值'

client = OpenAI(
    base_url='http://localhost:8000/v1', api_key=token)

messages = []

while True:
    a = input("User: ")
    messages.append({"role": "user", "content": a})
    response = client.chat.completions.create(
        model="qwen",
        messages=messages
    )
    b = response.choices[0].message.content
    b = b.replace("\n", "")
    print("AI: " + b)
    messages.append({"role": "assistant", "content": b})

# 反向代理

一个是安全性更有保障,如果在一些 https 的网站上调用BASE_URL的话,也必须使用 https 的链接才行

这里我们使用nginx来进行反向代理:

首先在自己的云服务器商申请 ssl 证书,放置在我们的服务器上

安装 nginx

sudo apt-get install nginx

配置 ngnix.conf 文件

vim /etc/nginx/nginx.conf

我的配置文件如下,加上了对大模型获取的优化

user www-data;
worker_processes auto;
pid /run/nginx.pid;
include /etc/nginx/modules-enabled/*.conf;

events {
	worker_connections 768;
	# multi_accept on;
}

http {

	##
	# Basic Settings
	##

	sendfile on;
	types_hash_max_size 2048;

	# 关闭代理缓冲。当设置为off时,Nginx会立即将客户端请求发送到后端服务器,并立即将从后端服务器接收到的响应发送回客户端。
	proxy_buffering off;
	# 启用分块传输编码。分块传输编码允许服务器为动态生成的内容分块发送数据,而不需要预先知道内容的大小。
	chunked_transfer_encoding on;
	# 开启TCP_NOPUSH,这告诉Nginx在数据包发送到客户端之前,尽可能地发送数据。这通常在sendfile使用时配合使用,可以提高网络效率。
	tcp_nopush on;
	# 开启TCP_NODELAY,这告诉Nginx不延迟发送数据,立即发送小数据包。在某些情况下,这可以减少网络的延迟。
	tcp_nodelay on;
	# 设置保持连接的超时时间,这里设置为120秒。如果在这段时间内,客户端和服务器之间没有进一步的通信,连接将被关闭。
	keepalive_timeout 120;
	# server_tokens off;

	# server_names_hash_bucket_size 64;
	# server_name_in_redirect off;

	include /etc/nginx/mime.types;
	default_type application/octet-stream;

	##
	# SSL Settings
	##
  ssl_certificate /etc/nginx/cert/xxx.com.crt;
  ssl_certificate_key /etc/nginx/cert/xxx.com.key;
  ssl_session_timeout 5m;
  ssl_ciphers ECDHE-RSA-AES128-GCM-SHA256:ECDHE:ECDH:AES:HIGH:!NULL:!aNULL:!MD5:!ADH:!RC4;
	ssl_protocols TLSv1 TLSv1.1 TLSv1.2 TLSv1.3; # Dropping SSLv3, ref: POODLE
	ssl_prefer_server_ciphers on;

	##
	# Logging Settings
	##

	access_log /var/log/nginx/access.log;
	error_log /var/log/nginx/error.log;
	##
	# Gzip Settings
	##

	gzip on;

	# gzip_vary on;
	# gzip_proxied any;
	# gzip_comp_level 6;
	# gzip_buffers 16 8k;
	# gzip_http_version 1.1;
	# gzip_types text/plain text/css application/json application/javascript text/xml application/xml application/xml+rss text/javascript;

	##
	# Virtual Host Configs
	##

	include /etc/nginx/conf.d/*.conf;
	include /etc/nginx/sites-enabled/*;
}

这里 vim 打开的是只读文件,如果我们想保存的话键入如下指令

:w !sudo tee %

我们可以在/etc/nginx/sites-available下新建一个文件chatgpt

其配置如下,http 在 8000 端口,https 在 8001 端口

server {
    listen 8000;
    server_name 域名;
    return 301 https://$host:8001$request_uri;
}

server {
    listen 8001 ssl;
    server_name 域名;

    location / {
        proxy_pass http://域名:8000;
        proxy_set_header Host $host;
        proxy_set_header X-Real-IP $remote_addr;
        proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
        proxy_set_header X-Forwarded-Proto https;
        proxy_set_header X-Forwarded-Port 8001;
    }
}

启用

# 启用配置
sudo ln -s /etc/nginx/sites-available/chatgpt /etc/nginx/sites-enabled/
# 检查配置文件是否正确
sudo nginx -t
# 重启 nginx 服务
sudo nginx -s reload

# ChatGPT Next Web

我们在拿到了 api 之后,可以部署我们的跨平台私人 ChatGPT 应用了

使用 vercel 进行部署,还是挺简单的,最大的坑就是如果使用的BASE_URL是 http 的链接,因为部署后是 https 的网站,不兼容。BASE_URL不需要带v1

要么我们去浏览器设置里面(网页链接左侧),找到网站设置-不安全内容将其设置为允许

要么我们将自己的BASE_URL链接转换为 https 的我们使用反向代理,见上

网站类

# Hugo

本站建站使用的就是 hugo 中的 stack 模板

评论系统使用 waline

使用 umami 进行访问统计

# qq 推送

建站评论信息 qq 推送,使用 Qmsg 酱进行推送

# Vercel

vercel 建站,用于国内访问速度加快的官方 DNS 解析:cname-china.vercel-dns.com

还可以使用个人的 Vercel CDN 加速,国内访问速度更快

Vercel 官方提供的缓存进行加速:

{
    "headers": [
        {
            "source": "/sw.js",
            "headers": [
                {
                    "key": "Cache-Control",
                    "value": "public, max-age=0, must-revalidate"
                }
            ]
        },
        {
            "source": "(.*)",
            "headers": [
                {
                    "key": "Cache-Control",
                    "value": "public, s-maxage=86400, max-age=86400"
                },
                {
                    "key": "Vercel-CDN-Cache-Control",
                    "value": "max-age=3600"
                }
            ]
        }
    ]
}

# jsDelivr CDN

jsDelivr 加速,GitHub 文件访问改为https://cdn.jsdelivr.com/gh/用户名/仓库名进行加速

jsDelivr
jsDelivr加速
https://www.jsdelivr.com/

使用 jsDelivr 的镜像站 JSDMirror,cdn.jsdmirror.com进行国内加速访问

Licensed under CC BY-NC-SA 4.0
最后更新于 2024-07-10 23:38 +0800
Built with Hugo | 主题 StackJimmy 设计