DWD层怎样解析事件表数据
1、创建基础明细表
明细表用于存储ODS层原始表转换过来的明细数据。

2、创建事件日志基础明细表

3、说明:其中event_name和event_json用来对应事件名和整个事件。这个地方将原始日志1对多的形式拆分出来了。操作的时候我们需要将原始日志展平,需要用到UDF和UDTF。
4、自定义UDF函数(解析公共字段)

5、创建一个maven工程:hivefunction
6、创建包名:com.atguigu.udf
7、在pom.xml文件中添加如下内容


8、UDF用于解析公共字段



9、注意:使用main函数主要用于模拟数据测试。
10、自定义UDTF函数(解析具体事件字段)

11、创建包名:com.atguigu.udtf
12、在com.atguigu.udtf包下创建类名:EventJsonUDTF
13、用于展开业务字段



14、打包

15、将hivefunction-1.0-SNAPSHOT上传到hadoop102的/opt/module/hive/
16、将jar包添加到Hive的classpath

17、创建临时函数与开发好的java class关联

18、解析事件日志基础明细表
1)解析事件日志基础明细表


19、测试

20、DWD层数据解析脚本
1)在hadoop102的/home/atguigu/bin目录下创建脚本

21、在脚本中编写如下内容



22、增加脚本执行权限

23、脚本使用

24、查询导入结果

25、脚本执行时间
开发中一般在每日凌晨30分~1点
声明:本网站引用、摘录或转载内容仅供网站访问者交流或参考,不代表本站立场,如存在版权或非法内容,请联系站长删除,联系邮箱:site.kefu@qq.com。
阅读量:43
阅读量:119
阅读量:63
阅读量:191
阅读量:187