【疯狂撕扯 AI 面纱】之自建ccc知识库【上】

使用AI写代码有一段时间了,从中感受到了科技创新的力量!
未来AI就和现在的微信一样,人人都会用到,这是一个跨时代的产物!

废话不说,以下总结自己摸索使用AI自建ccc开发知识库的一些方法!

如有错误,请指正!!!

第一步:
1、注册华为旗下【硅基流动】:SiliconFlow, Accelerate AGI to Benefit Humanity
2、新建一个API密钥:https://cloud.siliconflow.cn/account/ak
3、记住下面3个模型的名称

deepseek-ai/DeepSeek-R1
deepseek-ai/DeepSeek-V3
Qwen/Qwen2.5-72B-Instruct-128K

第二步:
1、下载Cherry Studio:https://cherry-ai.com/
2、下载直链:https://cherrystudio.ocool.online/Cherry-Studio-0.9.17-setup.exe
3、如果需要魔法的,请点击:https://gh.llkk.cc/https://github.com/CherryHQ/cherry-studio/releases/download/v0.9.17/Cherry-Studio-0.9.17-setup.exe
4、直接安装没有什么其他选项

第三步:
1、设置密钥

2、添加模型(依次添加:deepseek-ai/DeepSeek-R1、deepseek-ai/DeepSeek-V3、Qwen/Qwen2.5-72B-Instruct-128K,自带的都通通删除掉)

3、嵌入模型

4、默认设置

5、角色添加



知道你们很懒:

游戏开发专家
你是一名有着丰富经验的游戏开发人员,擅长使用GoLang语言进行游戏服务端开发,精通TypeScript语言并能结合cocos creator V3.8.5 游戏引擎熟练的进行游戏客户端开发。你开发的程序性能优越,你写的代码精炼易读。

6、对话测试(图中 4 可以切换模型)

17赞

不错不错,支持下

喵喵喵喵喵

太酷啦!!

看着很强啊

大佬,您那个 cursor 还有使用吗?对比下来感觉效果怎么样?

妙啊!标记一处地点

硅基流动不是收费的吗?chatgpt免费版本不够用吗

加 RAG,把手册文档和 d.ts 扔给它。

平时开发还是cursor 用的多,确实很强!

但是我开发了一套GO游戏服务端,我会丢给这个AI助手,让他优化学习整个项目!

cursor 虽然有codebase 的模式,但是每次索引的文件都不全,貌似有容量限制,这个我没解决!

所以平时开发用cursor ,开发完毕了需要整个优化或导出说明文档,就会丢给AI助手

1赞

感谢回复,大佬,您有试过 vscode 里面的 cline 结合部署本地或者在线的模型进行操作吗?那样感觉可以模拟 cursor 的一些效果

不错不错,这个有广告没?

没有
对我个人来说,没有资金实力不推荐跑【本地模型】
一个32b的本地模型就算你是4090都能烧开水了,哪怕是5090也是游戏显卡,他的显存和带宽还是不如AI显卡。

而且本地模型回复质量、速度还是不如接入商业API的快!

总结下来:
1、只是开发项目,可以使用VS集成AI助手就行,打辅助!
2、项目开发完毕,可以使用我这个方法把代码和一些资料丢给AI,实现整体优化或帮你写说明文档等后期工作

3、Cursor + 商业api自建知识库,是我目前推荐给个人的,也是我用的最舒服的开发方式!

。。。你吃饭了吗?

补充一点,如果是使用别人的框架,或对其他项目二开

使用这个方法把文件丢进去,后面你就可以爽了

脑门的头发起码多剩1/3

:+1: 确实是,目前正在探索本地化的可行度(基于个人简陋版本的硬件环境,资金也不足,只能稍微看看),就是 cursor 充值不太方便

淘宝65,还是给你账号充值,独享!!

如果你把pro每月fast额度用完了,你使劲点扩容(有个蓝色英文?叫什么我忘记了),还能白嫖

1赞

牛皮,大佬AI先行者啊

本地可以跑嵌入模型,目前我弄rag,索引的东西多的话,还是本地跑嵌入模型比较好(就是你那里面选的bge类的模型),而且本地可以挑更好的嵌入模型用,bge排名一般。

看这里的排名
https://huggingface.co/spaces/mteb/leaderboard
我本地跑的是gte-qwen2-1.5b的,凑合用用,比较好的是7b的

然后cherry studio的知识库构建,功能太弱,不能调文本片段长度,重叠长度等参数,关键是没有reranker模型用。如果搜索就会发现,每段文本的上下文比较短,就是512个token,对于文档类的内容,给大模型的文本片段就不够全面。
反正轻度用用还是可以,我提了issue给他们让加了。现在我暂时用的anythingllm,看cherry加好了我再转换过去。

另外,作为我们程序员,如果重度用RAG的话,也可以用python写langchain程序来做rag,这样可调的参数就很多,特别是检索精确度比一般这些工具要高。
例如可以做这些:对文档智能分段,对代码提取声明信息,联合关键词和向量一起检索,联用reranker模型后期匹配,精确度会高很多。

回复的好慢啊 是就是慢还是我的设置有问题