目前官网暂时无法充值,如果想体验下目前的 Deepseek 的 api 的功能的兄弟们
可以考虑下目前的这款插件:
https://store.cocos.com/app/detail/7184
目前 Deepseek 的服务器访问比较大,容易没返回数据,所以多提一次即可,注意上下文长度,过长时,可以考虑清除记录
接下文:
目前 Deepseek 的服务器访问比较大,容易没返回数据,所以多提一次即可,注意上下文长度,过长时,可以考虑清除记录
接下文:
支持一下!
感谢二喵兄的支持 ~ 
下表所列模型价格以“百万 tokens”为单位。Token 是模型用来表示自然语言文本的的最小单位,可以是一个词、一个数字或一个标点符号等。我们将根据模型输入和输出的总 token 数进行计量计费。
deepseek-chat 模型已经升级为 DeepSeek-V3 ; deepseek-reasoner 模型为新模型 DeepSeek-R1 。deepseek-reasoner 模型在给出正式回答之前的思考过程,其原理详见推理模型。max_tokens ,默认最大输出长度为 4K。请调整 max_tokens 以支持更长的输出。deepseek-reasoner 的输出 token 数包含了思维链和最终答案的所有 token,其计价相同。扣减费用 = token 消耗量 × 模型单价,对应的费用将直接从充值余额或赠送余额中进行扣减。 当充值余额与赠送余额同时存在时,优先扣减赠送余额。
产品价格可能发生变动,DeepSeek 保留修改价格的权利。请您依据实际用量按需充值,定期查看此页面以获知最新价格信息。
本指南将介绍如何使用 DeepSeek /chat/completions API 进行多轮对话。
DeepSeek /chat/completions API 是一个“无状态” API,即服务端不记录用户请求的上下文,用户在每次请求时, 需将之前所有对话历史拼接好后 ,传递给对话 API。
下面的代码以 Python 语言,展示了如何进行上下文拼接,以实现多轮对话。
from openai import OpenAIclient = OpenAI(api_key="<DeepSeek API Key>", base_url="https://api.deepseek.com")# Round 1messages = [{"role": "user", "content": "What's the highest mountain in the world?"}]response = client.chat.completions.create( model="deepseek-chat", messages=messages)messages.append(response.choices[0].message)print(f"Messages Round 1: {messages}")# Round 2messages.append({"role": "user", "content": "What is the second?"})response = client.chat.completions.create( model="deepseek-chat", messages=messages)messages.append(response.choices[0].message)print(f"Messages Round 2: {messages}")
在 第一轮 请求时,传递给 API 的 messages 为:
[ {"role": "user", "content": "What's the highest mountain in the world?"}]
在 第二轮 请求时:
messages 末尾messages 末尾最终传递给 API 的 messages 为:
[ {"role": "user", "content": "What's the highest mountain in the world?"}, {"role": "assistant", "content": "The highest mountain in the world is Mount Everest."}, {"role": "user", "content": "What is the second?"}]
介于这个特殊的规则,各位大佬可以考虑放一些内容上去,这边其实并不会记录任何信息,只是本地存储下,隐私方面有一定的保护
现在有没有 让DS 用COCOS完全自己做一个游戏的案例?
尝试中,某些方面还是可以,但是全面使用目前还不够,但是智能程度比之前 2024 年用的 chatgpt4.0 要好很多了
晚点续上本地化部署的测评结果和内容
cline/bolt + DS ?
我现在也在用cline+ds与trae
可以操作场景不,还是只能写代码?
目前来说在线的还是写不了太多的场景,感觉对不上,但是可以考虑自己进行 RAG 训练一个,
随着不断填充数据,这个自动化基本上都是迟早的事情了。
但是,这总得给咱自己留点事情做吧,不然全被 AI 做了,我们不就没活干了 
我用chatbox,感觉deepseek 的回复好慢,有什么加速他的方法吗?
得看具体需求,如果追求推理的极限,那还是只能等待官网 API 响应,如果只是辅助编程,我感觉可以考虑调试部署一个本地版本
》让 DeepSeek (深度求索) 官网的 R1 模型优化了下:
新一代智能开发解决方案
技术架构
需要企业级独享 API 密钥?或者商务合作?或者本地部署 Deepseek Rag ?立即联系技术顾问
QQ: 386437237 & 386437237@qq.com
当前共享池剩余Token:4500万+(不定时补充)
全平台兼容矩阵| Cocos Creator 3.x 系列 | Cocos Creator 2.x 系列 |
|---|---|
3.8.2 黄金支持 |
2.4.12 白金支持 |
3.7.1 完全兼容 |
2.4.10 完美运行 |
3.4.0 基础支持 |
2.4.0 稳定运行 |
Token 的含义和作用Token的计算方式不明确,可以粗略理解为一个汉字、一个完整的单词约为2个token,一个字母、数字、符号、格式字符(空格、回车、制表符等)约为1个token。具体计算方式可以到官网自己看
功能介绍深度集成:原生支持 Deepseek 全系列 AI 模型(V1-V3),最新版本支持调用(硅基流动)满血 Deepseek V3 模型
在插件目录
项目文件夹/packages/cc-deepseek-ai/panel/DeepSeek_Page
或者
项目文件夹/packages/deepseek/panel/DeepSeek_Page
里面的:
DeepseekUtilPostTest-macos
DeepseekUtilPostTest-linux
DeepseekUtilPostTest-win.exe
目前已接入硅基流动和Deepseek官方的API, 流式响应回答, 看起来像是有思考思维链的感觉, 的确比之前好很多了, 可执行文件也已经支持自定义本地和远程的链接和模型(配置的 JSON 文件),本地模型支持的是 Ollama 和 LM Studio 的本地服务, 基础版基本上定稿了吧
兄弟们,大家最关心的问题,你们感觉这个 AI 有胡诌吗?
[1
23] 作为一个 Cocos Creator 开发游戏的程序员,2025 年,你认为职业发展应该怎么规划比较好?如果要年入百万的话,认真且严谨地回复我的问题,带上你详细的数据比对
作为Cocos Creator开发者实现年入百万的规划,需要结合行业趋势、技术演进和商业逻辑进行多维度布局。以下是基于2023-2025年行业数据的严谨分析和发展路线:
一、行业基准数据(2023-2025预测)
薪资天花板对比:
技术岗位增长率:
二、四维发展矩阵
[维度1] 技术纵深发展(适合持续编码者)
2024目标:Cocos+Web3技术融合
2025突破点:
[维度2] 技术管理路径(适合沟通能力强者)
关键里程碑:
收入结构:
[维度3] 独立游戏创业(需商业嗅觉)
成本收益模型:
成功要素:
[维度4] 技术生态建设(长期价值)
三、关键能力雷达图(需达到4.5/5分)
AI协同开发 〇〇〇〇〇
跨平台架构 ○○○○○
技术商业化能力 〇〇〇〇〇
全球化视野 ○○○○○
社区运营能力 〇〇〇〇〇
四、收入组合策略(2025目标模型)
最优配置:
风险对冲:
五、执行路线图
2023Q4:
2024Q2:
2025Q1:
六、风险控制
需要特别注意:单纯依赖岗位薪资达到百万的概率低于12%(据BOSS直聘2023白皮书),必须建立"技术产品化+行业影响力+资产性收益"的三位一体模式。建议每季度投入20%时间在技术社交(GDC、GitHub协作等),这是突破收入瓶颈的关键路径。