数据开发者可能遇到这些问题

数据获取难

缺少统一数据采集规范与技术,用户数据缺乏标识,用户ID各端口未打通

实时性难满足

数据加工T+1方式,取数制表周期长实时性难满足数仓升级压力大

数据需求变化多

各部门数据需求不一、变化多,没有数据接口服务来支撑业务需求

埋点管理乱

埋点采集数据不准,漏埋、错埋多,经常返工沟通成本高

可视化效果差

需要开发或对接专门的可视化工具,业务人员要求高、难满足

大数据技术提升难

每日写各种ETL、数据流脚本,常要重复制作报表、无法专注大数据技术

技术资源有限

没有数据团队,研发团队承担多而杂的数据需求,技术架构升级成本高

自研慢缺经费

想寻求专业的大数据分析工具,市场价格动辄数十万公司经费紧张

Argo如何帮你解决问题?

一、全端用户行为数据采集

  • 全端用户行为数据采集

    跨平台,跨设备采集,打通全端用户行为数据

  • 开源多种SDK

    多种开源SDK,适用不同平台进行数据采集

  • 用户识别

    关联用户匿名状态与登陆状态,识别有方法

覆盖移动端、语言版等多种SDK,支持代码埋点、可视化埋点、全埋点不同埋点方式,满足不同类型用户采集需求。支持跨平台用户行为打通,可以了解同一用户在不同平台的行为数据。

二、自定义多维度用户行为分析

  • 12种模型覆盖多场景

    可视化界面满足业务需求

  • 自定义多维度用户分析

    业务自己查数,解放开发者

  • 支持下钻用户信息

    洞察每位用户的轨迹

  • 自定义用户分层

    基于多种维度分群

提供渠道、留存、漏斗等12大模型,帮助市场、运营、产品人员找到拉新、促活、留存、产品迭代的数据支撑。完备的分析模型高效提升分析效率,清晰的可视化界面让业务人员对数据动态一目了然。

三、秒算引擎支撑,实时用户分析

秒算:集数据接收、处理、存储、分布式SQL查询为一体的秒算引擎。

去ETL:数据仓库不再有批量执行的概念,时时入库即时分析与查询。

高效:基于开源数据库Presto,HDFS二次开发,支持秒级10亿以上级别查询。

稳定:经过易观5.8Pb,5.2亿月活数据锤炼。

专注:专注对象-事件模型分析,简化传统数据仓库复杂模型、达到高效运算。

跨数据库:支持“Data Federation”数据联邦针对Mysql等数据库跨库查询。

便捷:支持SQL级别的二次开发和UDF定义。

扩充性强:组件基于Apache开源协议,可支持众多开源存储对接。

四、行业首家智能埋点管理

  • 一站式完成埋点设计

    告别繁琐的excle文档

  • 异常数据智能治理

    异常上报数据自动化处理

  • 代码+可视化埋点方式

    团队协同更轻松

支持用户直接在易观方舟平台上,一站式完成埋点需求的提报与埋点事件的设计。当然,如有大量埋点需求,我们平台也兼容传统导入习惯,支持批量上传、单条添加事件、单条添加属性等。

五、开放的链接能力,支持与CRM等打通

  • 开放的IOTA架构,拥抱技术开发

    赋能企业快速二次开发

  • 支持与CRM等打通

    补充企业数据,扩宽企业数字化建设

Argo采取开放性的IOTA架构设计,不同模块间相互分离,支持核心存储、计算引擎模块热插拔升级。提供多种连接方式,赋予企业灵活高效的数据采集、分析能力以及快速二次开发能力,降低用户数据获取、存储、分析的研发资源与时间成本。

如何使用Argo?

明确免费版与 商业版界限,选择适合自己的版本;
需要配备相应的技术人员来安装,和集成数据,业务方明确想采集的数据维度;
服务器最低配置要求:系统:centos7.4|6|7 , CPU:4核8线, 支持 avx 指令集, 内存:16g, 系统盘大于200G, 数据盘 data1大于500G ,且不要使用磁盘分区;
获取下载地址,安装包,安装及产品文档,开始自研安装;
进入 方舟社区,关注小助手服务号,如有疑问可在社区提问,通过服务号及时接收消息,也可在微信群中交流。