求职简历模板大数据开发工程师_002.docx
《求职简历模板大数据开发工程师_002.docx》由会员分享,可在线阅读,更多相关《求职简历模板大数据开发工程师_002.docx(3页珍藏版)》请在第一文库网上搜索。
1、年 龄:XXX邮 箱:xxxxxxx手 机:XXXXXXXXXXxxxxxxx大学I本科I男应聘职位大数据开发工程师期望薪资:面议一个人证书全国大学英语六级考试(CET-6)469分.就职经历2016.7至2019.2就职于XXXXXX股份有限公司,职位为大数据开发工程师。个人能力 熟练使用Java, Scala, Pythorl等编程语言。 熟悉Shell脚本语言,经常在Linux环境下编写各类脚本。 熟练Hadoop相关知识,能够熟练搭建Hadoop分布式集群。 熟练使用Hive与Mysql等关系型数据库,了解HiVe优化相关知识。 熟练使用HBase存储数据,了解rowKey设计等HBa
2、se优化方法。 熟练使用RediS数据库存储数据,能够将RediS数据库应用到业务中。 熟练使用日asticSearch存储数据,了解日asticSearch索引建立等知识,熟练 使用Kibana调度EIaStiCSearCh数据库C 熟练使用SqOOp, Kafka, FIUme等数据传输工具。 了解ZookeePer相关知识,能够熟练使用Zookeeper0 熟练使用Spark及其组件,经常使用Spark对数据进行统计与分析。 熟练使用Azkaban定时调度任务。 了解OoZie相关知识,熟练使用Oozie定时调度任务。 项目经历项目一:香哈离线数据仓库搭建与基本指标获取项目简述:针对用户
3、登录、点击、浏览等行为以及自营电商业务每日产生的离 线数据,进行数据清洗、分类以及统计。离线数据导入HiVe数据仓库的过程涉及 到了 FIume1Sqoop的使用与调优,数据统计过程中涉及到了维度退化,宽表与拉 链表的构建与调整。最终实现了对用户留存率,转化率等重要指标的获取。项目架构:Flume ; Sqoop ; Mysql ; Hdfs ; Hive ; Spark ; Azkaban;主要负责:1、根据日志数据对应用日活,周活,月活数据进行统计,统计七日内日活变 化情况。2、分析用户日活数据,对用户留存、沉默、唤醒、流失与召回情况进行统计。3、统计每日上传作品的名称,类别等明细信息。4
4、、获取自营电商每日订单流水,对订单信息进行统计。5、建立用户行为明细表,统计用户的每日浏览、收藏等行为信息,并统计用 户活跃度。6、建立用户行为宽表,统计用户的每日浏览、收藏等行为信息。7、建立基于行为数据与用户基本信息的用户画像。8、计算每日普通用户升级为会员用户的转化率。技术要点:1、使用JaVa语言编写FlUme拦截器,清洗日志数据中的不完整数据与时间 错误数据,并分流日志数据到不同的ChanneI。2、使用SqoOP传输自营电商业务数据,保存到hdfs。3、使用JaVa语言编写UDF函数,对日志公共字段进行解析,编写UDTF函 数,解析日志具体事件字段。4、通过Spark-sql保存解
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 求职 简历模板 数据 开发 工程师 _002