喵喵喵喵喵
太酷啦!!
看着很强啊
大佬,您那个 cursor 还有使用吗?对比下来感觉效果怎么样?
妙啊!标记一处地点
硅基流动不是收费的吗?chatgpt免费版本不够用吗
加 RAG,把手册文档和 d.ts 扔给它。
平时开发还是cursor 用的多,确实很强!
但是我开发了一套GO游戏服务端,我会丢给这个AI助手,让他优化学习整个项目!
cursor 虽然有codebase 的模式,但是每次索引的文件都不全,貌似有容量限制,这个我没解决!
所以平时开发用cursor ,开发完毕了需要整个优化或导出说明文档,就会丢给AI助手
感谢回复,大佬,您有试过 vscode 里面的 cline 结合部署本地或者在线的模型进行操作吗?那样感觉可以模拟 cursor 的一些效果
不错不错,这个有广告没?
没有
对我个人来说,没有资金实力不推荐跑【本地模型】
一个32b的本地模型就算你是4090都能烧开水了,哪怕是5090也是游戏显卡,他的显存和带宽还是不如AI显卡。
而且本地模型回复质量、速度还是不如接入商业API的快!
总结下来:
1、只是开发项目,可以使用VS集成AI助手就行,打辅助!
2、项目开发完毕,可以使用我这个方法把代码和一些资料丢给AI,实现整体优化或帮你写说明文档等后期工作
3、Cursor + 商业api自建知识库,是我目前推荐给个人的,也是我用的最舒服的开发方式!
。。。你吃饭了吗?
补充一点,如果是使用别人的框架,或对其他项目二开
使用这个方法把文件丢进去,后面你就可以爽了
脑门的头发起码多剩1/3
确实是,目前正在探索本地化的可行度(基于个人简陋版本的硬件环境,资金也不足,只能稍微看看),就是 cursor 充值不太方便
淘宝65,还是给你账号充值,独享!!
如果你把pro每月fast额度用完了,你使劲点扩容(有个蓝色英文?叫什么我忘记了),还能白嫖
牛皮,大佬AI先行者啊
本地可以跑嵌入模型,目前我弄rag,索引的东西多的话,还是本地跑嵌入模型比较好(就是你那里面选的bge类的模型),而且本地可以挑更好的嵌入模型用,bge排名一般。
看这里的排名
https://huggingface.co/spaces/mteb/leaderboard
我本地跑的是gte-qwen2-1.5b的,凑合用用,比较好的是7b的
然后cherry studio的知识库构建,功能太弱,不能调文本片段长度,重叠长度等参数,关键是没有reranker模型用。如果搜索就会发现,每段文本的上下文比较短,就是512个token,对于文档类的内容,给大模型的文本片段就不够全面。
反正轻度用用还是可以,我提了issue给他们让加了。现在我暂时用的anythingllm,看cherry加好了我再转换过去。
另外,作为我们程序员,如果重度用RAG的话,也可以用python写langchain程序来做rag,这样可调的参数就很多,特别是检索精确度比一般这些工具要高。
例如可以做这些:对文档智能分段,对代码提取声明信息,联合关键词和向量一起检索,联用reranker模型后期匹配,精确度会高很多。
回复的好慢啊 是就是慢还是我的设置有问题
是的,cherry studio只是玩具入门级别
针对新手个人还是可以用
要想进一步还是得使用一些商业级rag工具或者自己二开
没看到有65的阿,昨天刚125冲了一个