必须实践出真知啊。
新版本是:npm run build:adapter
不影响打 call 
这个fixed 会在3.8.5的正式版本里赶上发布么。
会在 3.8.4 的第二个社区版中带上。代码已经合并。
并且使用 simdutf 优化了 JSON 反序列化性能,在 android 中低端机上加载大量 JSON,性能提升 30% 左右。具体测试数据看 pull request 中的描述。
384应该自定义管线重构的第一个版本,打磨完成感觉还是385
新旧管线可切换的,旧项目升级上来是保持旧管线。新建的项目用新管线。
新管线你们内部测试数据怎么样性能有多大的提升
mark~~~~
目前性能还在测试当中,按照以往经验与老管线基本持平。
这个版本在移动端可能有一点性能提升以及发热降低(通过Discard 深度模板缓冲,降低了带宽)。
后处理做了比较多的优化,移除了不必要的拷贝,以及修复了Bloom combine时多余的贴图采样。
同时原生支持了MSAA,利用了移动端片上的Resolve,在不增加带宽的情况下,获得了抗锯齿特性。
上线后可以发个的帖子讲解一下新管线吗
新管线会把详细教程和解释写在文档里。到时候也会有一个专门的帖子,解答问题和issue。
除了官方发布的正式版本外,内置管线会不断更新。
最新版在 https://github.com/cocos/cocos-example-custom-pipeline 3.8.4分支。
assets/examples/tutorial-006-builtin 这个目录。
3.8.4 第二个社区版已发布,麻烦大家在现有项目中验证看下在原生上还是否会出现卡顿的问题。
大佬能看一下我的问题吗
我看读了文件内容之后,用simdutf转了一遍,才反序列化的json,为什么说性能提升了这么多呢
我读了相关c++代码,他是先将读取到的utf8字符串转为utf16(使用了 simdutf转的), 然后调用 se::Object::createJSONObject,传入utf16字符串,创建了json对象。
可能提升点在utf8转utf16上。 因为js本身使用的是utf16,v8内置的转换可能没有这个效率高。
另外我看了一下,chrome也使用了这个开源库。
我考虑把这个东西,和异步读取json,同步到2.4的原生项目中,不知道能否获取收获。
我搞到 2.4 了,anr 降了很多
我把simdutf,异步读取json,v8版本升级到11 这些东西都同步到2.4.15工程。
1,升级v8到11按我的测试,在中高端机器上有一定的性能提升,低端机不明显。
2,simdutf加上后,没感觉加载有明显提升,也可能我测试的样本不够多。
3,异步读取json:这个东西能减少anr,但是我也遇到新的问题:异步虽然能降低主线程负担,但是总的加载时间会变长,这中高端机器上,切换场景时(场景不是太大),若使用同步,可以感受到一触即发的快感,但是换成异步后,从点击到场景切换,总是有些延时,界面跳转反馈不够及时,没有一触即发的爽快。因此这东西并非都是优点。
总结下来,异步加载json的优缺点:
优点:能解决主线程因为读取文件带来的卡顿
缺点:a,相对同步加载,总的加载时间会变长(多线程同步消耗了时间)
b, json的解析无法放在work线程中,只能在js线程解析,因此遇到大的json文件解析卡顿仍然无法解决。
