欢迎来到第一文库网! | 帮助中心 第一文库网-每个人都是第一
第一文库网
全部分类
  • 研究报告>
  • 学术论文>
  • 全科教育>
  • 应用文档>
  • 行业资料>
  • 企业管理>
  • 技术资料>
  • 生活休闲>
  • ImageVerifierCode 换一换
    首页 第一文库网 > 资源分类 > DOCX文档下载
    分享到微信 分享到微博 分享到QQ空间

    简历模板-大数据开发工程师.docx

    • 资源ID:122016       资源大小:13.32KB        全文页数:3页
    • 资源格式: DOCX        下载积分:3金币
    快捷下载 游客一键下载
    账号登录下载
    微信登录下载
    三方登录下载: QQ登录 微博登录
    二维码
    扫码关注公众号登录
    下载资源需要3金币
    邮箱/手机:
    温馨提示:
    快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。
    如填写123,账号就是123,密码也是123。
    支付方式: 支付宝    微信支付   
    验证码:   换一换

    加入VIP,免费下载
     
    账号:
    密码:
    验证码:   换一换
      忘记密码?
        
    友情提示
    2、PDF文件下载后,可能会被浏览器默认打开,此种情况可以点击浏览器菜单,保存网页到桌面,就可以正常下载了。
    3、本站不支持迅雷下载,请使用电脑自带的IE浏览器,或者360浏览器、谷歌浏览器下载即可。
    4、本站资源下载后的文档和图纸-无水印,预览文档经过压缩,下载后原文更清晰。
    5、试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。

    简历模板-大数据开发工程师.docx

    XXX大连理工大学I本科I男年 龄:23邮 箱:XXXXXr163. com手 机:1XXXXXXX应聘职位大数据开发工程师期望薪资:面议、个人证书全国大学英语六级考试(CET-6)469分S就职经历2016.7至2019.2就职于北京香哈网络股份有限公司,职位为大数据开发工程师。5人能力 熟练使用Java, Scala, Python等编程语言。 熟悉Shell脚本语言,经常在Linux环境下编写各类脚本。 熟练Hadoop相关知识,能够熟练搭建Hadoop分布式集群。 熟练使用Hive与Mysql等关系型数据库,了解Hive优化相关知识。 熟练使用HBase存储数据,了解rowKey设计等HBase优化方法。 熟练使用Redis数据库存储数据,能够将Redis数据库应用到业务中。 熟练使用ElasticSearch存储数据,了解ElasticSearch索引建立等知识,熟练使用Kibana调度日asticSearch数据库。 熟练使用Sqoop, Kafka, Flume等数据传输工具。 了解Zookeeper相关知识,能够熟练使用Zookeeper0 熟练使用Spark及其组件,经常使用Spark对数据进行统计与分析。 熟练使用Azkaban定时调度任务。 了解Oozie相关知识,熟练使用Oozie定时调度任务。.项目经历项目一:香哈离线数据仓库搭建与基本指标获取项目简述:针对用户登录、点击、浏览等行为以及自营电商业务每日产生的离线数据,进行数据清洗、分类以及统计。离线数据导入Hive数据仓库的过程涉及到了 Flume.Sqoop的使用与调优,数据统计过程中涉及到了维度退化,宽表与拉链表的构建与调整。最终实现了对用户留存率,转化率等重要指标的获取。项目架构:Flume ; Sqoop ; Mysql ; Hdfs ; Hive ; Spark ; Azkaban;主要负责:Is根据日志数据对应用日活,周活,月活数据进行统计,统计七日内日活变化情况。2、分析用户日活数据,对用户留存、沉默、唤醒、流失与召回情况进行统计。3、统计每日上传作品的名称,类别等明细信息。4、获取自营电商每日订单流水,对订单信息进行统计。5、建立用户行为明细表,统计用户的每日浏览、收藏等行为信息,并统计用户活跃度。6、建立用户行为宽表,统计用户的每日浏览、收藏等行为信息。7、建立基于行为数据与用户基本信息的用户画像。8、计算每日普通用户升级为会员用户的转化率。技术要点:1s使用Java语言编写Flume拦截器,清洗日志数据中的不完整数据与时间错误数据,并分流日志数据到不同的Channel。2、使用Sqp传输自营电商业务数据,保存到hdfs。3、使用Java语言编写UDF函数,对日志公共字段进行解析,编写UDTF函数,解析日志具体事件字段。4、通过Spark-sql保存解析后的日志数据到数据仓库。5、使用Spark RDD操作对解析后日志数据进行脱敏。6、建立用户行为明细表(每日全量),根据用户对作品行为数据,使用Spark-sql 统计用户偏好指标, 结合用户所在地区等信息建立用户画像。7、使用Azkaban调度系统,定时执行任务。项目二:香哈美食推荐系统项目简述:采用每日用户行为明细数据作为原始数据集,将用户对作品的行为转化为评分数据,根据作品的每日评分与评分有效期统计作品的综合评分。通过Spark-MLlib计算基于ltem-CF的作品推荐列表。项目架构:MongoDB ; ElasticSearch ; Redis,Spark ; Azkaban主要负责:工、通过Spark-sql读取每日用户行为明细数据,计算用户评分数据以及作品每日平均评分数据。2、统计评分有效期内作品的每日平均评分,构建用户与作品的评分矩阵。3、通过ltem-CF计算得到每日推荐作品列表。4、根据作品形式将推荐列表存入MongoDBo5、使用Azkaban定时调度业务系统。技术要点:1s使用Scala语言编写用户行为明细数据的解析工具类,并建立与业务指标相关的样例类。2、使用Spark-sql以及Spark RDD操作对解析后的用户行为明细数据进行统计,得到评分数据。3、划分评分数据的训练集与测试集°4、通过Spark-MLlib的ALS算法得到用户对产品的预测评分矩阵。5、根据用户评分矩阵计算产品间的相似度矩阵,并存储到HBase。6、根据作品的余弦相似度以及用户评分计算针对用户的每日推荐列表,保存入日asticSearch 以及 MongoDBo7、通过相似度矩阵得到相似作品推荐列表,并存入ElasticSearch与MongDBo8、使用Azkaban定时调度系统。项目三:香哈广告点击黑名单统计系统项目简述:实时获取广告业务日志信息以及用户行为日志信息。通过Redis数据库存储广告日志信息,使用Spark分析广告点击日志,统计用户点击次数,广告的点击通过率,并实时更新广告点击用户黑名单。项目架构:Kafka ; Spark ; Redis ; Mysql主要负责:Is通过Kafka集群实时获取广告的点击日志数据。2、通过Spark RDD操作实时统计各页面各广告的点击数量。3、根据用户点击量等指标实时更新广告点击黑名单。技术要点:1、使用kafka集群实时获取广告点击日志数据。2、通过Spark-streaming实时消费Kafka中数据,并通过RDD操作清洗错误时间戳数据。3、利用Redis建立广告点击黑名单表,并实时更新。4、Spark RDD操作统计广告点击信息,通过Spark-streaming缓存广告业务数据到Redis数据库,利用Redis对广告业务信息进行去重。5、通过Spark-streaming读取Redis数据库中广告点击黑名单,过滤黑名单用户点击数据。

    注意事项

    本文(简历模板-大数据开发工程师.docx)为本站会员(lao****ou)主动上传,第一文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知第一文库网(点击联系客服),我们立即给予删除!

    温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载不扣分。




    关于我们 - 网站声明 - 网站地图 - 资源地图 - 友情链接 - 网站客服 - 联系我们

    copyright@ 2008-2022 001doc.com网站版权所有   

    经营许可证编号:宁ICP备2022001085号

    本站为文档C2C交易模式,即用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有,必要时第一文库网拥有上传用户文档的转载和下载权。第一文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知第一文库网,我们立即给予删除!



    收起
    展开