🔗 链接

永久链接 | GitHub | 语雀 | 知乎

📝 写在前面

简悦的很多功能都接入了 AI,例如:阅读助手全文翻译划词翻译,甚至还有 专门用于导出简悦稍后读内容以用于 RAG 的插件

因此,我想分享一下我经常使用的各种免费大模型。

💻 SiliconFlow

SiliconFlow 是基于优秀的开源基础模型,集合顶尖大模型的一站式云服务平台,可使用任意 模型(包含免费使用模型) 未注册用户,建议使用 此链接 注册,即可获取 2000 万 Tokens

1️⃣ Qwen/Qwen2.5-7B-Instruct

首选模型,来自阿里的非推理型模型,具有小巧、简单、快速的特点,主要用于阅读助手、全文翻译和划词翻译。

2️⃣ deepseek-ai/DeepSeek-R1-Distill-Qwen-7B

这是一个推理模型,速度相对较慢,作为对 Qwen/Qwen2.5-7B-Instruct 的补充。

当我使用全文翻译的"左右栏 + 一次性全文翻译"功能时就会选用此模型,它能将英文内容更符合中文语义地转换为中文。

3️⃣ THUDM/glm-4-9b-chat

来自智谱的 AI 模型,最大特点是支持 128K 上下文,因此在处理超长文章时我会使用此模型。

例如在使用 RAG 方案时,由于输入给 LLM 的内容通常很大,这时就会考虑使用此模型。

🌐 OpenRouter

OpenRouter 是一个聚合了多种大语言模型(LLMs)的 API 平台,旨在为用户提供便捷、高效且经济实惠的模型调用方式。它整合了包括 OpenAI、Anthropic、Google DeepMind、Meta(如 Llama 2)等公司的多种前沿模型,用户可以通过统一的 API 接口访问这些模型,并根据需求灵活选择。

1️⃣ deepseek/deepseek-chat-v3-0324:free

由于 SiliconFlow 不免费支持 DeepSeek v3-0324 版本,我改用 OpenRouter 提供的免费方案。

虽然主要对标 Qwen/Qwen2.5-7B-Instruct,但从我的使用体验来看,两者差异并不明显。

2️⃣ 其他备选

使用 OpenRouter 的优势是可以经常体验较新的 LLM 模型,例如来自 Google、Meta 和 Nvidia 的:

📗 google/gemini-2.5-pro-exp-03-25:free

📘 meta-llama/llama-4-maverick:free & meta-llama/llama-4-scout:free

📙 nvidia/llama-3.3-nemotron-super-49b-v1:free & nvidia/llama-3.1-nemotron-ultra-253b-v1:free

🌋 火山引擎

来自字节跳动的大模型。

1️⃣ doubao-1-5-pro-256k-250115

支持 256K 上下文的对话模型,使用体验良好,特别是与简悦 MCP + ChatWise 搭配使用时效果最佳。

虽然是收费模型,但火山引擎提供了充足的免费额度,完全能满足日常使用需求。

🔗 关联

📖 阅读助手

🌐 全文翻译

🔤 划词翻译

📚 导出简悦知识库(用于 RAG 打造个人专属 AI 知识库)

🔎 延伸阅读

点击 标签 #ai 查看更多