新手使用cocos analytics遇到的问题,望答疑解惑

感谢Cocos团队开发出跨平台的数据统计平台,并且还免费使用,开心~,但是使用过程中有几个不懂的问题,希望有明白的小伙伴能够给解答一下:

  1. init接口中的 appSecret 和 callnumber 具体是什么含义,在文档中没有找到相关介绍

  2. 实时数据的刷新间隔是多少?目前感觉得有30分钟才会刷新一次数据

  3. 活跃设备中记录到了昨天16日的活跃设备数量,但是在玩家信息概览中并没有16日到数据

  4. 留存界面,第一天是指次日留存么?当前是17号,看不到15 -> 16日到留存信息

  5. 16日设置新增到事件,并且已经发送了相关到事件信息,看到日志有正常返回。 在埋点分析中通过”作业“方式也可以查到16日到事件信息,但是在漏斗信息中16日到漏洞事件并没有具体数据产生。而且在详细事件中也没有任何事件数据。 (16日测试时,并没有调用login_success)


  6. 任何事件的触发,是否都要基于先触发了login_success之后才会有统计?

  7. 当前的后台工具,是否能支持查看具体每一关的转化比例(因为目前小游戏大多是以推关卡形式的,能够具体观察到某一关到流失比例,对调产品很重要),当前的这个后台好像并不能很直观的看到。如果是使用漏斗到方式,如果关卡有100关甚至更多,应该不支持吧。

  8. 建议:是否可以开放一个测试模式,数据能够比较即时到响应,哪怕只可以绑定一个设备也可以。现在想测试一下数据上传统计,要等一整天才能看到数据,如果发现有问题,还要再继续等下一天。

哈,谢谢对我们的信任。这里集中回答一下
1、init接口中的 appSecret 和 callnumber 具体是什么含义,在文档中没有找到相关介绍
appSecret 是老版本的加密序列。这个版本已经舍弃了,我们统一在程序里面做数据加密保护。
callnumber 是我们的数据分区。公司内部也用我们的统计,项目和项目之间,以及公司和客户之前,数据隔离数据分区的依据。
大家接入数据时候忽略这两个参数就可以了。

2、实时数据的刷新间隔是多少?目前感觉得有30分钟才会刷新一次数据
这个要说一下我们的数据架构了
现在是kafka+sparkstreaming 数据上kafka大概是毫秒级的,在streaming上按照5分钟跑一次数据落地,数据解密+格式转化也是5分钟跑一次,这么折算下来应该是10分钟,极端有数据堵塞会顺延一会儿。
所以总结应该是0~10分钟

实效性问题我们一直有关注,其实还有另外一套框架正在跑,kafka+flink+hbase,等我们验证稳定性后再开放给大家使用。

6、任何SDK接口的四种状态都会产生数据。但是报表的活跃用户和设备,还有消费这块依赖于login_success
举个例子:如果算活跃用户,都没有用户登录相关报表信心肯定计算不出来的,还有消费数据如果没有用户归属计算消费等级等信息也就没有意义了。活跃设备这块,因为init时候设备就被记录了,但是实际并未真正玩游戏,可能直接退出了,所以活跃设备和用户都依赖于login_success的数据。

8、建议
我们已经开放了测试模式。自定义事件的埋点分析就是准实时的,上传埋点就可以在那边查询到。还是有一些时效延迟


中间的数据问题是否可以提供下appid,这边看下数据后台再回复你
关于漏斗配置关卡有100多关。有两种解决办法,首先数据格式参考这样
eventid:关卡统计
{关卡:1,
用户战力:9999}

方法1:漏斗设置配置关卡区间,比如 1-10设置一个漏斗步骤,10~20设置一个,以此类推来满足需求
方法2:任意在漏斗配置设置一个事件id为“关卡统计”,标签为“关卡”的步骤,然后在事件明细里就可以看到相对应的所有关卡的触发次数、用户数、设备数

感谢耐心解答!我的问题大概都明白啦。 中间数据的问题我后来观察发现有可能是某些数据还未刷新, 我以为过来12点就会刷新,但是貌似比我预期的更晚一些,第二天早上观察数据就是正常的了! 多谢, 希望可以越来越好