🔗 链接
📝 写在前面
简悦的很多功能都接入了 AI,例如:阅读助手、全文翻译、划词翻译,甚至还有 专门用于导出简悦稍后读内容以用于 RAG 的插件。
因此,我想分享一下我经常使用的各种免费大模型。
💻 SiliconFlow
SiliconFlow 是基于优秀的开源基础模型,集合顶尖大模型的一站式云服务平台,可使用任意 模型(包含免费使用模型) 未注册用户,建议使用 此链接 注册,即可获取 2000 万 Tokens
首选模型,来自阿里的非推理型模型,具有小巧、简单、快速的特点,主要用于阅读助手、全文翻译和划词翻译。
2️⃣ deepseek-ai/DeepSeek-R1-Distill-Qwen-7B
这是一个推理模型,速度相对较慢,作为对 Qwen/Qwen2.5-7B-Instruct
的补充。
当我使用全文翻译的"左右栏 + 一次性全文翻译"功能时就会选用此模型,它能将英文内容更符合中文语义地转换为中文。
来自智谱的 AI 模型,最大特点是支持 128K 上下文,因此在处理超长文章时我会使用此模型。
例如在使用 RAG 方案时,由于输入给 LLM 的内容通常很大,这时就会考虑使用此模型。
🌐 OpenRouter
OpenRouter 是一个聚合了多种大语言模型(LLMs)的 API 平台,旨在为用户提供便捷、高效且经济实惠的模型调用方式。它整合了包括 OpenAI、Anthropic、Google DeepMind、Meta(如 Llama 2)等公司的多种前沿模型,用户可以通过统一的 API 接口访问这些模型,并根据需求灵活选择。
1️⃣ deepseek/deepseek-chat-v3-0324:free
由于 SiliconFlow 不免费支持 DeepSeek v3-0324 版本,我改用 OpenRouter 提供的免费方案。
虽然主要对标 Qwen/Qwen2.5-7B-Instruct
,但从我的使用体验来看,两者差异并不明显。
2️⃣ 其他备选
使用 OpenRouter 的优势是可以经常体验较新的 LLM 模型,例如来自 Google、Meta 和 Nvidia 的:
📗 google/gemini-2.5-pro-exp-03-25:free
📘 meta-llama/llama-4-maverick:free & meta-llama/llama-4-scout:free
📙 nvidia/llama-3.3-nemotron-super-49b-v1:free & nvidia/llama-3.1-nemotron-ultra-253b-v1:free
🌋 火山引擎
来自字节跳动的大模型。
1️⃣ doubao-1-5-pro-256k-250115
支持 256K 上下文的对话模型,使用体验良好,特别是与简悦 MCP + ChatWise 搭配使用时效果最佳。
虽然是收费模型,但火山引擎提供了充足的免费额度,完全能满足日常使用需求。
🔗 关联
📖 阅读助手
🌐 全文翻译
🔤 划词翻译
📚 导出简悦知识库(用于 RAG 打造个人专属 AI 知识库)
🔎 延伸阅读
点击 标签 #ai 查看更多