有人做过cocos调用本地化的大模型吗

看到有人用ollama实现unity调用本地的llm

还unity,调用大模型你可以直接http,或者jni也行

关键词>js调用本地大模型

用http调用是可以,但是异步返回不知道为啥也太慢了:joy:
image

可能因为http 正常的post要等结果生成完了才返回,你用event-stream、fetchEventSource

1赞

【给NPC接入大模型【太空独游开发日志】-哔哩哔哩】 https://b23.tv/qUU7Gqb

各位有兴趣的话欢迎点个关注

用流式传输 不需要等.