Skip to content

AI 接口配置

AI 批改助手通过 OpenAI 兼容的 /v1/chat/completions 接口与 AI 服务通信,需要发送答题卡图片给 AI 进行视觉识别。

必须使用支持图片识别的模型

AI 批改助手的核心功能是识别手写答案图片,因此所选模型必须支持图片输入(多模态)

以下模型不能使用

  • DeepSeek 的纯文本模型(deepseek-chat、deepseek-coder 等)
  • 其他任何不支持图片输入的纯文本模型

使用纯文本模型会导致 AI 无法看到答题卡图片,只能"猜"答案,评分结果毫无意义。

推荐:5+1 AI

5+1 AI 是内置的默认服务商,开箱即用,无需手动配置端点和模型。

配置项
端点https://api.ai.five-plus-one.com/v1/chat/completions(脚本内置,无需手动填写)
模型mimo-v2.5(脚本内置,无需手动填写)
API KEY注册获取

获取步骤

  1. 访问 5+1 AI 控制台
  2. 注册账号(支持手机号或邮箱)
  3. 新注册用户会获得少量试用额度
  4. 在控制台中创建 API Token
  5. 复制 Token,粘贴到脚本设置面板的「API 密钥」输入框

关于费用

5+1 AI 为新用户提供少量试用额度。试用额度用完后,需要在控制台中充值才能继续使用。脚本本身完全免费,费用来自 AI 服务的调用。

其他兼容服务

脚本支持任何兼容 OpenAI 接口且支持图片输入的服务商。在设置面板中切换服务商后,填写对应的配置:

火山引擎(豆包)

配置项
端点https://ark.cn-beijing.volces.com/api/v3/chat/completions
模型你的推理接入点 ID(需选择支持视觉的模型)
API KEY火山引擎控制台

硅基流动

配置项
端点https://api.siliconflow.cn/v1/chat/completions
模型Qwen/Qwen2.5-VL-72B-Instruct(VL 系列支持图片)
API KEY硅基流动

如何确认模型是否支持图片?

选择模型时,注意名称中是否包含 VL(Vision-Language)、Vision多模态 等关键词。例如:

  • Qwen2.5-VL-72B-Instruct — 支持图片
  • Qwen2.5-72B-Instruct — 纯文本,不支持

如果不确定,可以在服务商的文档中确认该模型是否支持"图片输入"或"多模态"。

多服务商管理

脚本支持配置多个服务商,并在它们之间快速切换:

  1. 打开设置面板
  2. 在「AI 服务商」区域,可以看到已配置的服务商列表
  3. 点击服务商名称切换当前使用的服务商
  4. 点击「+」添加新服务商,填写端点、模型和密钥

每个预设方案可以绑定不同的服务商。

流式输出

脚本默认启用 SSE 流式输出,实时显示 AI 的思考过程。你可以在流式输出面板中:

  • 观察 AI 识别手写答案的过程
  • 查看 AI 的评分推理逻辑
  • 在识别完成后复制结果

如果遇到流式输出不工作的情况,可能是服务商不支持 SSE 或浏览器兼容性问题,脚本会自动降级为普通请求模式。

请求参数

脚本发送给 AI 的请求参数:

参数说明
model你配置的模型名mimo-v2.5
max_tokens2048最大输出 token 数
streamtrue启用流式输出
messages多模态消息包含文本提示词 + 答题卡图片

诊断与调试

如果 API 请求遇到问题,打开浏览器控制台(F12)查看带 [诊断] 标记的日志:

  • 📤 发送请求到: ... — 请求已发出
  • ✅ onprogress 已触发 — 流式输出正常工作
  • ✅ onload 触发 — HTTP状态: 200 — 请求成功
  • ❌ API返回错误: 4xx/5xx — 服务端报错
  • ❌ 网络请求被拦截 — 跨域权限问题
  • ❌ 请求超时 — 网络超时

跨域权限

脚本使用 GM_xmlhttpRequest 绕过浏览器的跨域限制,这是 Tampermonkey 提供的特殊 API。如果遇到跨域错误,请确认脚本是通过 Tampermonkey 安装的,而非直接在浏览器控制台中运行。