# DeepClaude **Repository Path**: dext7r/DeepClaude ## Basic Information - **Project Name**: DeepClaude - **Description**: No description available - **Primary Language**: Unknown - **License**: Not specified - **Default Branch**: main - **Homepage**: None - **GVP Project**: No ## Statistics - **Stars**: 0 - **Forks**: 0 - **Created**: 2025-09-15 - **Last Updated**: 2025-09-15 ## Categories & Tags **Categories**: Uncategorized **Tags**: None ## README

DeepClaude 🐬🧠 - OpenAI Compatible(deepclaude & deepgemini)

Inspiration from getasterisk/deepclaude [![GitHub license](https://img.erlich.fun/personal-blog/uPic/deepclaude.svg)](#) [![Compatible with](https://img.erlich.fun/personal-blog/uPic/-ChatGPT-412991.jpg)](https://openai.com)

特别说明:
在最新的 1.0 版本,我们已经实现了配置界面,部署更简单。 1.编程:推荐 DeepSeek r1 + Claude Sonnet 4 组合,效果最好; 2.内容创作:推荐 DeepSeek r1 + Gemini 2.5 Flash 或 Gemini 2.5 Pro 组合,效果最好,并且可以完全免费使用。
对于不太会部署,只是希望使用上最强组合模型的朋友,可以直接访问 Erlich 个人网站自助购买按量付费的 API:https://erlich.fun/deepclaude-pricing 也可以直接联系 Erlich(微信号:geekthings)

赞助商:问小白 https://www.wenxiaobai.com (丝滑使用 DeepSeek r1 满血版, 支持联网、上传文件、图片、AI 创作 PPT 等)
---
友情链接:Ten Agent: https://github.com/TEN-framework/TEN-Agent
---
更新日志: 2025-05-29.2:更新 Docker Image 运行平台支持,可以通过 `docker pull erlichliu/deepclaude ` 拉取到本地运行,自动选择合适的平台版本。 2025-05-29.1:feat: 系统配置添加 deepseek r1 的 max_tokens 设置,降低成本。 2025-05-27.2: 支持配置文件的导入导出模式,方便升级或部署后反复进行配置。 2025-05-27.1: 适配 Gemini API 流式响应上的结束标记处理顺序问题。 2025-05-22.3: 优化 openai 兼容格式返回结束标志,改善近期 deepgeminipro 中断回复的问题。 2025-05-22.2: 优化组合模型之间的衔接 Prompt,提高不同模型本身的能力表达。 2025-05-22.1: 支持可关闭 gemini 2.5 flash 的思考,节省 tokens 消耗,针对 gemini 2.5 pro 采用提示词优化的方式也可以平均每次降低 30% 的成本消耗。 2025-05-16.1: 支持更友好的多段落报错返回,尤其是针对超过上下文长度的报错返回,可以更好的适配前端界面的报错。 2025-03-22.1: 支持根据不同模型设置是否开启代理,提高运行效率。 2025-03-10.1: deepseek r1 推理部分 max_token 改为 5,节省输出 Tokens 消耗;非流式输出部分增加 reasoning_content 数据字段的返回;将非流式输出设置为缺省值,方便 dify 等工具使用。 2025-03-05.1: 更改docker compose配置, 使用volume将容器配置文件绑定至本地, 避免重启容器时丢失配置. 同时设置失败自动重启. 2025-03-02.1: 更新 1.0 版本,支持图形化配置界面,取消 .env 配置,预配置模板,配置更方便 2025-02-25.1: 添加 system message 对于 Claude 3.5 Sonnet 的支持 2025-02-23.1: 重构代码,支持 OpenAI 兼容模型,deepgeminiflash 和 deepgeminipro 配置更方便(请详细查看 READEME 和 .env.example 内的说明)。 2025-02-21.1: 添加 Claude 这段的详细数据结构安全检查。 2025-02-16.1: 支持 claude 侧采用请求体中的自定义模型名称。(如果你采用 oneapi 等中转方,那么现在可以通过配置环境变量或在 API 请求中采用任何 Gemini 等模型完成后半部分。接下来将重构代码,更清晰地支持不同的思考模型组合。) 2025-02-08.2: 支持非流式请求,支持 OpenAI 兼容的 models 接口返回。(⚠️ 当前暂未实现正确的 tokens 消耗统计,稍后更新) 2025-02-08.1: 添加 Github Actions,支持 fork 自动同步、支持自动构建 Docker 最新镜像、支持 docker-compose 部署 2025-02-07.2: 修复 Claude temperature 参数可能会超过范围导致的请求失败的 bug 2025-02-07.1: 支持 Claude temputerature 等参数;添加更详细的 .env.example 说明 2025-02-06.1:修复非原生推理模型无法获得到推理内容的 bug 2025-02-05.1: 支持通过环境变量配置是否是原生支持推理字段的模型,满血版本通常支持 2025-02-04.2: 支持跨域配置,可在 .env 中配置 2025-02-04.1: 支持 Openrouter 以及 OneAPI 等中转服务商作为 Claude 部分的供应商 2025-02-03.3: 支持 OpenRouter 作为 Claude 的供应商,详见 .env.example 说明 2025-02-03.2: 由于 deepseek r1 在某种程度上已经开启了一个规范,所以我们也遵循推理标注的这种规范,更好适配支持的更好的 Cherry Studio 等软件。 2025-02-03.1: Siliconflow 的 DeepSeek R1 返回结构变更,支持新的返回结构
# 简介 最近 DeepSeek 推出了 [DeepSeek R1 模型](https://platform.deepseek.com),在推理能力上已经达到了第一梯队。但是 DeepSeek R1 在一些日常任务的输出上可能仍然无法匹敌 Claude 3.5 Sonnet。Aider 团队最近有一篇研究,表示通过[采用 DeepSeek R1 + Claude 3.5 Sonnet 可以实现最好的效果](https://aider.chat/2025/01/24/r1-sonnet.html)。 deepseek r1 and sonnet benchmark > **R1 as architect with Sonnet as editor has set a new SOTA of 64.0%** on the [aider polyglot benchmark](https://aider.chat/2024/12/21/polyglot.html). They achieve this at **14X less cost** compared to the previous o1 SOTA result. 本项目受到该项目的启发,通过 fastAPI 完全重写,经过 15 天大量社区用户的真实测试,我们创作了一些新的组合使用方案。 **1.编程:推荐使用 deepclaude = deepseek r1 + claude 3.7 sonnet; 2.内容创作:推荐使用 deepgeminipro = deepseek r1 + gemini 2.0 pro (该方案可以完全免费使用); 3.日常实验:推荐 deepgeminiflash = deepseek r1 + gemini 2.0 flash (该方案可以完全免费使用)。** 项目**支持 OpenAI 兼容格式的输入输出**,支持 DeepSeek 官方 API 以及第三方托管的 API、生成部分也支持 Claude 官方 API 以及中转 API,并对 OpenAI 兼容格式的其他 Model 做了特别支持。 **🔥推荐使用方法:** 1.用户可以自行运行在自己的服务器,并对外提供开放 API 接口,接入 [OneAPI](https://github.com/songquanpeng/one-api) 等实现统一分发。 2.接入你的日常大语言模型对话聊天使用。 # Implementation ![image-20250201212456050](https://img.erlich.fun/personal-blog/uPic/image-20250201212456050.png) # How to run > 项目支持本地运行和服务器运行,推荐使用服务器部署,实现随时随处可访问的最强大语言模型服务,甚至可以完全免费使用。 ## 1. 获得运行所需的 API 1. 获取 DeepSeek API,推荐采用 PPIO(派欧云)最新的 DeepSeek R1 0528,点击链接注册,新用户可以获得 15 元免费额度,再邀请人还可以获得 30 元:https://ppio.cn/user/register?invited_by=TXTPQF 2. 获取 Claude 的 API KEY:https://console.anthropic.com。(也可采用其他中转服务,如 DMXapi、Openrouter 以及其他服务商的 API KEY) 3. 获取 Gemini 的 API KEY:https://aistudio.google.com/apikey (有免费的额度,日常够用) ## 2. 开始运行(使用 Docker) ** 极其推荐 Zeabur,然后通过 Zeabur 来购买新加坡或日本的服务器是最划算的,只要 2 美金就足够,如果你是新用户,可以点击:https://zeabur.com/referral?referralCode=ErlichLiu 我们一起获得奖励额度 ** ✅ Step 1. 安装 Docker 请确保你已经安装了 Docker Desktop(适用于 macOS 和 Windows),或 Docker Engine(适用于 Linux)。 Windows 下载安装地址:https://docs.docker.com/desktop/setup/install/windows-install/ macOS 下载安装地址:https://docs.docker.com/desktop/setup/install/mac-install/ 安装完成后,确保在终端中运行以下命令没有报错: `docker --version` 🚀 Step 2. 拉取镜像并运行项目 打开终端或命令行,输入以下命令: `docker run -p 8000:8000 erlichliu/deepclaude:latest` 运行后你可以访问: `http://localhost:8000/config` 即可使用该服务。 ⸻ 📦 可选:后台运行 + 自动重启(建议部署时使用) `docker run -d --restart unless-stopped -p 8000:8000 erlichliu/deepclaude:latest` ⸻ 🧪 开发者:如果你想构建自己的镜像(而不是用已有镜像) ```bash git clone https://github.com/ErlichLiu/DeepClaude.git cd DeepClaude docker build -t deepclaude:dev . docker run -p 8000:8000 deepclaude:dev ``` ⸻ Step 4. 开始配置:打开浏览器访问 http://localhost:8000/config 输入默认 api key:123456 (如果你运行在云端,请尽快登录后在系统设置内更改,避免被其他人盗用,本地登录则无需更改) ![配置授权页面](https://img.erlich.fun/personal-blog/uPic/HW7YfK.png) 按照提示在“推理模型这一栏”配置一个火山云引擎的 api key,点击编辑,粘贴进去 api key 后点击保存即可 ![配置火山云引擎的 api key](https://img.erlich.fun/personal-blog/uPic/PNfOcU.png) `是否支持原生推理`选项控制了两套针对推理模型返回思考内容. - 支持原生推理: 推理模型在返回体`reasoning_content`字段返回推理内容, 在`content`字段返回回答内容. 例如: - DeepSeek官方 `deepseek-reasoner` - Siliconflow `deepseek-ai/deepseek-r1` - 不支持原生推理: 推理模型在`content`字段中以``标签包裹推理内容返回. 例如: - 派欧算力云 `deepseek/deepseek-r1`, `deepseek/deepseek-r1/community`, `deepseek/deepseek-r1-turbo` - AiHubMix `aihubmix-DeepSeek-R1` - Cluade 3.7 Sonnet Thinking 大多数服务商提供的deepseek-r1均支持原生推理, 所以推荐默认开启. 如果不确定可以在外部使用聊天框架(Chatbox)测试模型响应内容. 如果出现``标签则需要关闭`支持原生推理`选项. 不支持原生推理的deepseek-r1可能需要prompt来触发思考, 若日志中收集到推理内容长度一直为0, 而且出现``字样, 则考虑检查此因素: ![image](https://img.erlich.fun/personal-blog/uPic/63bf0a9f-19cf-49d4-aa28-e916b2a62138.png) 按照提示在“目标模型”配置一个 Claude 3.7 Sonnet 的 api key 以及一个 Gmeini 的 api key,Gemini 的 api key 可以在:https://aistudio.google.com/apikey 获取 ![配置 Claude 3.7 Sonnet 的 api key](https://img.erlich.fun/personal-blog/uPic/ydKSHW.png) 同理,也可以配置一个 Gemini 的 api key 分别到 deepgeminiflash 和 deepgeminipro ![配置 Gemini api key](https://img.erlich.fun/personal-blog/uPic/XGXDkz.png) Step 5. 配置程序到你的 Chatbox(推荐 [Cherry Studio](https://cherry-ai.com) [NextChat](https://nextchat.dev/)、[ChatBox](https://chatboxai.app/zh)、[LobeChat](https://lobechat.com/)) **如果你的客户端是 Cherry Studio、Chatbox(选择 OpenAI API 模式,注意不是 OpenAI 兼容模式)** API 地址为 http://127.0.0.1:8000 API 密钥为默认的 123456,如果你在系统设置内进行修改,则改为你修改过的即可 需要手动配置三个模型,分别为 deepclaude、deepgeminiflash 和 deepgeminipro 模型 **如果你的客户端是 LobeChat** API 地址为:http://127.0.0.1:8000/v1 API 密钥为默认的 123456,如果你在系统设置内进行修改,则改为你修改过的即可 支持获取模型列表,可以同时获取到 deepclaude、deepgeminiflash 和 deepgeminipro 模型 **注:本项目采用 uv 作为包管理器,这是一个更快速更现代的管理方式,用于替代 pip,你可以[在此了解更多](https://docs.astral.sh/uv/)** # Automatic fork sync 项目已经支持 Github Actions 自动更新 fork 项目的代码,保持你的 fork 版本与当前 main 分支保持一致。如需开启,请 frok 后在 Settings 中开启 Actions 权限即可。 # Technology Stack - [FastAPI](https://fastapi.tiangolo.com/) - [UV as package manager](https://docs.astral.sh/uv/#project-management) - [Docker](https://www.docker.com/) # Star History [![Star History Chart](https://img.erlich.fun/personal-blog/uPic/DeepClaude&type=Date.jpg)](https://star-history.com/#ErlichLiu/DeepClaude&Date) # Buy me a coffee 微信赞赏码 # About Me - Email: erlichliu@gmail.com - Website: [Erlichliu](https://erlich.fun)