【DeepSeek】【探索】【上】接入 DS 官方 API 部署使用多个模型

【DeepSeek】【探索】【上】接入 DS 官方 API 部署使用多个模型

可以访问下方的链接,目前优惠中(已充值 5000 万 token),感兴趣的兄弟可以研究研究 :

目前支持自由切换模型(包含chat和r1模型),支持自定义 api-key, 支持自定义请求地址
deepseek-reasoner
deepseek-chat
deepseek-coder
插件支持 Cocos 2.x 和 3.x 版本,插件源码未加密,内置可执行 exe 工具模型(用的chat模型)

https://store.cocos.com/app/detail/7184

Cocos \color{red}{Deepseek} 最新版本

开发环境

NodeJs 为基础

编程语言: JavaScript + Html

需要使用独享版本的 API-Key 的, 请联系我

QQ: \color{red}{386437237}

TOKEN 目前剩余的额度有 \color{red}{4000万-5000万}

目前[已测试]平台

Cocos 的版本代码仅直接运行, 跑通浏览器测试过

|Cocos Creator 3.4.0, 3.7.1, 3.8.2 | Creator 2.4.10, 2.4.9, 2.4.0, 2.4.12 | H5 |

|--------- | ---- | ----|

| :white_check_mark: |:white_check_mark: | :heavy_check_mark::heavy_check_mark::heavy_check_mark: |

Token 的含义和作用

Token的计算方式不明确,可以粗略理解为一个汉字、一个完整的单词约为2个token,一个字母、数字、符号、格式字符(空格、回车、制表符等)约为1个token。具体计算方式可以到官网自己看

功能介绍

  1. 写了套基于 Cocos 去调用 Deepseek 付费 API 的逻辑,目前已充值 \color{red}{5000万} token

  2. 所有的代码未混淆未压缩, 可以做二次开发, 结构简单, 构建逻辑比较清晰

  3. 兼容 Cocos 2.x 和 Cocos 3.x 版本, 可以独立启动 html 版本运行在浏览器里面

  4. 插件内置封装了3个的可执行文件版本


在插件目录

项目文件夹/packages/cc-deepseek-ai/panel/DeepSeek_Page

或者

项目文件夹/packages/deepseek/panel/DeepSeek_Page

里面的:

DeepseekUtilPostTest-macos

DeepseekUtilPostTest-linux

DeepseekUtilPostTest-win.exe

  1. 支持拖拽文件到面板上进行操作

  2. 支持清除聊天记录,清除和查看问题记录

  3. 支持自动记录上下文信息(默认的Deepseek的传输是不记录上下文的,需要自行传递)

讨论&交流

使用教程

1.0.1 这是 Deepseek 官方的用量介绍

也可以自行去官网创造自己的 api-keys:

访问 Deepseek api_keys

1.1 打开 Cocos Deepseek 面板, 简单查看下, 支持快捷键操作

1.1.2 从菜单打开编程面板也可以快捷键打开

1.2 简单拖拽下文件看看

1.3 简单让 Deepseek 写个新代码逻辑

2.1 多开和浏览器打开使用

2.2 使用exe等可执行文件提问

关于 Deepseek , 小白基础知识概要

DeepSeek-V3 的综合能力

DeepSeek-V3 在推理速度上相较历史模型有了大幅提升。

在目前大模型主流榜单中,DeepSeek-V3 在开源模型中位列榜首,与世界上最先进的闭源模型不分伯仲。

插件源码目录

插件 ZIP 文件大小:

43.3 MB (45,490,940 字节)


cc-deepseek-ai

├─i18n

├─node_modules

├─panel

│  └─DeepSeek_Page

└─run_times

    └─AITools

更新声明

  • 后续更新的版本会继续放在这里面更新

版权声明

  • 该插件资源中的源代码可商业使用

  • 商业授权范围仅限于在您自行开发的游戏作品中使用

  • 不得进行任何形式的转售、租赁、传播等

联系作者

购买须知

  • 请各位朋友看后仔细思考,是否符合您的项目或者研究需求,谨慎使用

  • 目前内容相对比较少, 后续才会迭代

  • 因为本产品为付费虚拟商品,一经购买成功概不退款,请在购买谨慎确认购买内容。

目前官网暂时无法充值,如果想体验下目前的 Deepseek 的 api 的功能的兄弟们

可以考虑下目前的这款插件:

https://store.cocos.com/app/detail/7184

目前 Deepseek 的服务器访问比较大,容易没返回数据,所以多提一次即可,注意上下文长度,过长时,可以考虑清除记录

image

接下文:

支持一下!

1赞

感谢二喵兄的支持 ~ :smiley:

DeepSeek 模型 & 价格

下表所列模型价格以“百万 tokens”为单位。Token 是模型用来表示自然语言文本的的最小单位,可以是一个词、一个数字或一个标点符号等。我们将根据模型输入和输出的总 token 数进行计量计费。

模型 & 价格

  1. deepseek-chat 模型已经升级为 DeepSeek-V3deepseek-reasoner 模型为新模型 DeepSeek-R1
  2. 思维链deepseek-reasoner 模型在给出正式回答之前的思考过程,其原理详见推理模型
  3. 如未指定 max_tokens ,默认最大输出长度为 4K。请调整 max_tokens 以支持更长的输出。
  4. 关于上下文缓存的细节,请参考DeepSeek 硬盘缓存
  5. deepseek-reasoner 的输出 token 数包含了思维链和最终答案的所有 token,其计价相同。

扣费规则

扣减费用 = token 消耗量 × 模型单价,对应的费用将直接从充值余额或赠送余额中进行扣减。 当充值余额与赠送余额同时存在时,优先扣减赠送余额。

产品价格可能发生变动,DeepSeek 保留修改价格的权利。请您依据实际用量按需充值,定期查看此页面以获知最新价格信息。

多轮对话

本指南将介绍如何使用 DeepSeek /chat/completions API 进行多轮对话。

DeepSeek /chat/completions API 是一个“无状态” API,即服务端不记录用户请求的上下文,用户在每次请求时, 需将之前所有对话历史拼接好后 ,传递给对话 API。

下面的代码以 Python 语言,展示了如何进行上下文拼接,以实现多轮对话。

from openai import OpenAIclient = OpenAI(api_key="<DeepSeek API Key>", base_url="https://api.deepseek.com")# Round 1messages = [{"role": "user", "content": "What's the highest mountain in the world?"}]response = client.chat.completions.create(    model="deepseek-chat",    messages=messages)messages.append(response.choices[0].message)print(f"Messages Round 1: {messages}")# Round 2messages.append({"role": "user", "content": "What is the second?"})response = client.chat.completions.create(    model="deepseek-chat",    messages=messages)messages.append(response.choices[0].message)print(f"Messages Round 2: {messages}")

第一轮 请求时,传递给 API 的 messages 为:

[    {"role": "user", "content": "What's the highest mountain in the world?"}]

第二轮 请求时:

  1. 要将第一轮中模型的输出添加到 messages 末尾
  2. 将新的提问添加到 messages 末尾

最终传递给 API 的 messages 为:

[    {"role": "user", "content": "What's the highest mountain in the world?"},    {"role": "assistant", "content": "The highest mountain in the world is Mount Everest."},    {"role": "user", "content": "What is the second?"}]

介于这个特殊的规则,各位大佬可以考虑放一些内容上去,这边其实并不会记录任何信息,只是本地存储下,隐私方面有一定的保护

现在有没有 让DS 用COCOS完全自己做一个游戏的案例?

尝试中,某些方面还是可以,但是全面使用目前还不够,但是智能程度比之前 2024 年用的 chatgpt4.0 要好很多了

晚点续上本地化部署的测评结果和内容

cline/bolt + DS ?

1赞

我现在也在用cline+ds与trae

可以操作场景不,还是只能写代码?

目前来说在线的还是写不了太多的场景,感觉对不上,但是可以考虑自己进行 RAG 训练一个,
:no_mouth: 随着不断填充数据,这个自动化基本上都是迟早的事情了。

但是,这总得给咱自己留点事情做吧,不然全被 AI 做了,我们不就没活干了 :rofl:

我用chatbox,感觉deepseek 的回复好慢,有什么加速他的方法吗?

得看具体需求,如果追求推理的极限,那还是只能等待官网 API 响应,如果只是辅助编程,我感觉可以考虑调试部署一个本地版本

头部介绍更新1:

https://store.cocos.com/app/detail/7184

》让 DeepSeek (深度求索) 官网的 R1 模型优化了下:

<专业级AI助手> Cocos Deepseek Pro 插件 v3.0

:rocket: 新一代智能开发解决方案

:wrench: 技术架构

  • 核心引擎:Node.js 16+ 高性能运行环境
  • 开发语言:JavaScript + HTML5 双引擎驱动

:key: 需要企业级独享 API 密钥?或者商务合作?或者本地部署 Deepseek Rag ?立即联系技术顾问
:telephone_receiver: QQ: 386437237 & 386437237@qq.com
:gift: 当前共享池剩余Token:4500万+(不定时补充)


:globe_with_meridians: 全平台兼容矩阵

Cocos Creator 3.x 系列 Cocos Creator 2.x 系列
3.8.2 :heavy_check_mark: 黄金支持 2.4.12 :heavy_check_mark: 白金支持
3.7.1 :heavy_check_mark: 完全兼容 2.4.10 :heavy_check_mark: 完美运行
3.4.0 :white_check_mark: 基础支持 2.4.0 :heavy_check_mark: 稳定运行

:bulb:Token 的含义和作用

Token的计算方式不明确,可以粗略理解为一个汉字、一个完整的单词约为2个token,一个字母、数字、符号、格式字符(空格、回车、制表符等)约为1个token。具体计算方式可以到官网自己看


:hammer_and_wrench: 功能介绍

深度集成:原生支持 Deepseek 全系列 AI 模型(V1-V3),最新版本支持调用(硅基流动)满血 Deepseek V3 模型

  1. 写了套基于 Cocos 去调用 Deepseek 付费 API 的逻辑,目前已充值5000万token
  2. 初版的代码未混淆未压缩, 可以做二次开发, 结构简单, 构建逻辑比较清晰(新增第三版开始对页面js有做混淆处理)
  3. 兼容 Cocos 2.x 和 Cocos 3.x 版本, 可以独立启动 html 版本运行在浏览器里面
  4. 插件内置封装了3个的可执行文件版本
在插件目录
项目文件夹/packages/cc-deepseek-ai/panel/DeepSeek_Page
或者
项目文件夹/packages/deepseek/panel/DeepSeek_Page
里面的:
DeepseekUtilPostTest-macos
DeepseekUtilPostTest-linux
DeepseekUtilPostTest-win.exe
  1. 支持鼠标快速拖拽文件到插件面板上进行代码改写和操作
  2. 支持清除聊天记录,清除和查看问题记录
  3. 支持自动记录上下文信息(默认的Deepseek的传输是不记录上下文的,需要自行传递)
  4. 优化用户体验,修改 UI 交互界面,增加实时互动思维链功能
  5. 增加侧边栏功能,简化插件界面,让界面更加简洁
  6. 增加内置中英文切换功能,方便用户切换语言
  7. 增强对话功能,用户可以与机器人聊天时,可以看到机器人的思考过程的思维链
  8. 增加删除记录功能,用户可以删除自己保存的对话记录
  9. 增加对话历史记录功能,用户可以查看自己之前的对话记录
  10. 增加对话模型功能,用户可以自由切换选择自己喜欢的对话模型,并进行对话
  11. 增加自定义请求功能,用户可以自由自定义 API 密钥、模型、请求地址
  12. 增强可执行文件的功能,增加配置文件,用户可以自定义连接地址和是否连接本地
  13. 可执行文件可以本地链接到本地的 Ollama 和 LM Studio 服务器进行对话
  14. 自动进行动态获取 <硅基流动><深度求索> 的模型列表
  15. 智能实时本地记录输入或选择的模型、API 服务、密钥
  16. 增加更多跳转功能,可以点击查看对应模型的介绍,对应 token 的介绍
  17. 提升用户体验 ,增强各种交互,减少学习成本,提高效率和性能,增强复制功能,增加全屏功能
  18. 增加 8 种主题类型自由切换,增加右上角查看当前模型,AI 回复的气泡内底部附带使用的模型名称和时间
  19. 导入导出数据拖拽导入配置和聊天记录复杂版本
  20. 可以限制输入字符大小自动定位设置字符的面板位置
  21. 增强全屏输入的功能全屏按钮和复制按钮的功能

新版本的功能更新

https://store.cocos.com/app/detail/7184

1.1.3.1 查看更新的新版本

1.1.3.2查看新版本的设置页的侧边栏

1.1.3.3 查看内置的中英文切换功能

1.1.3.4 切换api模型进行思维链对话

1.1.3.5 删除记录时增加确认框内容仅自定义可以编辑模型和密钥


1.1.3.6.1 可执行文件增加配置文件可自定义连接地址和是否连接本地

1.1.3.6.2 可执行文件增加配置文件可自定义连接地址和是否连接本地

1.1.3.7 拖入文件全屏观看多开窗口查看token

1.1.3.8 ESC退出全屏编辑查看模型介绍

1.1.3.9 输入内容增加字符限制

1.1.3.10 对话的消息记录全屏查看和复制

1.1.3.11 导入导出数据拖拽导入配置和聊天记录复杂版本

1.1.3.12 可以限制输入字符大小自动定位设置字符的面板位置

1.1.3.13 增强全屏输入的功能全屏按钮和复制按钮的功能

总结:

https://store.cocos.com/app/detail/7184

目前已接入硅基流动和Deepseek官方的API, 流式响应回答, 看起来像是有思考思维链的感觉, 的确比之前好很多了, 可执行文件也已经支持自定义本地和远程的链接和模型(配置的 JSON 文件),本地模型支持的是 Ollama 和 LM Studio 的本地服务, 基础版基本上定稿了吧