AI 接口配置
AI 批改助手通过 OpenAI 兼容的 /v1/chat/completions 接口与 AI 服务通信,需要发送答题卡图片给 AI 进行视觉识别。
必须使用支持图片识别的模型
AI 批改助手的核心功能是识别手写答案图片,因此所选模型必须支持图片输入(多模态)。
以下模型不能使用:
- DeepSeek 的纯文本模型(deepseek-chat、deepseek-coder 等)
- 其他任何不支持图片输入的纯文本模型
使用纯文本模型会导致 AI 无法看到答题卡图片,只能"猜"答案,评分结果毫无意义。
推荐:5+1 AI
5+1 AI 是内置的默认服务商,开箱即用,无需手动配置端点和模型。
| 配置项 | 值 |
|---|---|
| 端点 | https://api.ai.five-plus-one.com/v1/chat/completions(脚本内置,无需手动填写) |
| 模型 | mimo-v2.5(脚本内置,无需手动填写) |
| API KEY | 注册获取 |
获取步骤
- 访问 5+1 AI 控制台
- 注册账号(支持手机号或邮箱)
- 新注册用户会获得少量试用额度
- 在控制台中创建 API Token
- 复制 Token,粘贴到脚本设置面板的「API 密钥」输入框
关于费用
5+1 AI 为新用户提供少量试用额度。试用额度用完后,需要在控制台中充值才能继续使用。脚本本身完全免费,费用来自 AI 服务的调用。
其他兼容服务
脚本支持任何兼容 OpenAI 接口且支持图片输入的服务商。在设置面板中切换服务商后,填写对应的配置:
火山引擎(豆包)
| 配置项 | 值 |
|---|---|
| 端点 | https://ark.cn-beijing.volces.com/api/v3/chat/completions |
| 模型 | 你的推理接入点 ID(需选择支持视觉的模型) |
| API KEY | 火山引擎控制台 |
硅基流动
| 配置项 | 值 |
|---|---|
| 端点 | https://api.siliconflow.cn/v1/chat/completions |
| 模型 | 如 Qwen/Qwen2.5-VL-72B-Instruct(VL 系列支持图片) |
| API KEY | 硅基流动 |
如何确认模型是否支持图片?
选择模型时,注意名称中是否包含 VL(Vision-Language)、Vision、多模态 等关键词。例如:
Qwen2.5-VL-72B-Instruct— 支持图片Qwen2.5-72B-Instruct— 纯文本,不支持
如果不确定,可以在服务商的文档中确认该模型是否支持"图片输入"或"多模态"。
多服务商管理
脚本支持配置多个服务商,并在它们之间快速切换:
- 打开设置面板
- 在「AI 服务商」区域,可以看到已配置的服务商列表
- 点击服务商名称切换当前使用的服务商
- 点击「+」添加新服务商,填写端点、模型和密钥
每个预设方案可以绑定不同的服务商。
流式输出
脚本默认启用 SSE 流式输出,实时显示 AI 的思考过程。你可以在流式输出面板中:
- 观察 AI 识别手写答案的过程
- 查看 AI 的评分推理逻辑
- 在识别完成后复制结果
如果遇到流式输出不工作的情况,可能是服务商不支持 SSE 或浏览器兼容性问题,脚本会自动降级为普通请求模式。
请求参数
脚本发送给 AI 的请求参数:
| 参数 | 值 | 说明 |
|---|---|---|
model | 你配置的模型名 | 如 mimo-v2.5 |
max_tokens | 2048 | 最大输出 token 数 |
stream | true | 启用流式输出 |
messages | 多模态消息 | 包含文本提示词 + 答题卡图片 |
诊断与调试
如果 API 请求遇到问题,打开浏览器控制台(F12)查看带 [诊断] 标记的日志:
📤 发送请求到: ...— 请求已发出✅ onprogress 已触发— 流式输出正常工作✅ onload 触发 — HTTP状态: 200— 请求成功❌ API返回错误: 4xx/5xx— 服务端报错❌ 网络请求被拦截— 跨域权限问题❌ 请求超时— 网络超时
跨域权限
脚本使用 GM_xmlhttpRequest 绕过浏览器的跨域限制,这是 Tampermonkey 提供的特殊 API。如果遇到跨域错误,请确认脚本是通过 Tampermonkey 安装的,而非直接在浏览器控制台中运行。