大数据开发工程师的简历内容怎么填写

简历本 08月10日 简历范文      完整简历范文

基本信息

姓名:简小历

年龄:28岁

电话:137****9421

邮箱:658425****@qq.com

经验:6年

意向:大数据开发工程师

教育背景

时间:2012-09 - 2016-05

学校:简历本科技学院 | 专业:电气信息类 | 学历:本科

工作经历

工作时间:2016-06 - 2017-05

公司名称:简历本信息科技有限公司 | 所在部门: | 所在岗位:大数据开发工程师

工作描述:
我在项目组任职大数据开发工程师,每天的工作是将我们所获得的数据,根据业务需求使用mapreduce对源数据进行清洗,例如我们项目组在游戏推广阶段需要统计推广渠道带来的用户数,进而对渠道进行分析,我就需要对logstash抽取的数据做一个清洗,得到需要的字段,并且按照渠道标识对输出文件分区,将相同渠道的用户账号信息写入到一个文件中。最后我们将hive分析出的渠道注册用户数与spark分析出的渠道登陆用户数做一个关联分析,分析出玩家注册到登陆之间的转化率,通过转化率可以判断出渠道是否存在刷量导致注册转化率低。除此之外我们还会将各渠道的用户信息表与玩家充值表根据userID(玩家账号的唯一标识)做一个join分析,分析出各渠道玩家的充值情况。通过各种维度对营销渠道的效果进行分析,从而更加合理地确定投入策略,最小化用户获取成本。在游戏运营后我们会从用户行为,营收状况,用户粘性分析三个主要的方面分析游戏运行状况,对于用户行为分析,我们可以分析玩家的游戏时间分布,从而合理的安排游戏运营活动,从而提高活动参与度,提高收益。根据不同需求可再进一步将时间细分。针对营收状况,我们会分析玩家的充值情况以及付费结构等。分析针对用户粘性分析,我们主要从次日留存着手,分析玩家的留存情况。

工作时间:2014-03 - 至今

公司名称:简历本网络技术有限公司 | 所在部门: | 所在岗位:大数据开发工程师

工作描述:
2014/3-2016/3 四川准达信息技术有限公司 移动通信工程师
2016-3至今 四川准达信息技术有限公司 大数据开发工程师
负责HADOOP大数据平台搭建与维护
数据存储(hive)
数据分析和统计(spark)

项目经历

项目时间:2016-04 - 至今

项目名称:中国人寿大数据平台建设 | 项目工具:rehat平台,集群规模50台,数据量28T

项目描述:
项目介绍
此项目是把多个业务系统的数据统一加工处理,然后再服务于国寿各个平台,项目大概分为下面几个部分,数据以sqoop或者其他ETL工具从增量库生产Gz文件,然后通过调度平台把数据放入到Hbase中,然后通过oozie调用Mapreduce,spark批处理,HiveSql,sqoop等定时执行任务对数据进行加工,并把处理好的数据放到Hbase表中或Hive内部表中,通过WebService接口执行ImpalaSql把平台数据提供给各个子系统。
我的职责
1.负责指定业务模块的Mapreduce编写
2.mapreduce运行效率优化,HbaseAPI编程接口优化,
3.平台运行过程中基本问题的处理,调度平台任务效率优化,
4.Spark离线处理业务逻辑指标计算,
5.spark-streaming 从kafka中读取流数据处理加工并放回hbase中等

项目时间:2017-02 - 至今

项目名称:xx金服平台数据中心 | 项目工具:linux操作系统搭载的jvm、mysql、mongoDB、kettle、tomcat

项目描述:
项目介绍
这是一个数据中心,包括数据的提取、转化、加载的部分。对数据作何处理则依赖于数据的范式及业务的需求,对数据流进行按要求的分层处理直到完全符合要求。过程需保障数据的一致性、完备性,做到可靠、高效。
我的职责
1.大量存储过程的编写
2.kettle作业调度mysql存储过程、设置定时任务
3.kettl跨库进行 ETL 操作
4.Hadoop mapReduce处理数据,得到相应的kpi
6.处理成相应业务视图供前端使用
7.相应的文档编写、维护

个人评价


1、勇于挑战自己的极限,能吃苦,能够承受一定的工作压力;
2、逻辑思维能力强,思路清楚,自学能力强,对新技术有着强烈的好奇心和求知欲;
3、为人真诚,性格开朗,有良好的交流沟通能力,善于团队合作;

个人技能

了解数据建模相关知识
熟悉Flume、Logstash数据采集工具的原理,熟悉Elasticsearch
熟悉消息系统Kafka工作机制,能独立完成Kafka集群部署
熟练使用Sqoop进行关系型数据库与Hdfs/Hive/Hbase之间进行数据导入导出;了解Azkaban任务调度系统
熟练使用Spark RDD/ Spark SQL/Spark-Streaming算子,熟悉Spark架构及框架原理,熟悉Spark中的一些优化
掌握Hbase数据库工作机制,能独立完成Hbase集群环境搭建
熟练使用Hive进行数据的查询分析处理及ETL相关操作,了解Hive优化
熟悉HDFS文件存储系统、Map/Reduce离线计算模型、YARN资源管理的工作机制以及Hadoop生态体系相关技术
熟练Scala、Java编程语言、Shell脚本

有用
本文内容来自互联网,如果侵犯了您的权益,请联系管理员立即删除(附上内容地址)

相关推荐

  • 大数据开发工程师简历模板下载word格式,求职意向:大数据开发工程师,工作经历:根据公司发展需要,为公司所做的项目提供技术支持,搭建数据分析平台,对数据进行简单清洗和处理,对项目所需的部分指标进行分析处理,解决项目中出现的部分问题,优化项目代码,减少运行时间。
    3486人使用
  • 大数据工程师简历模板,基本信息,姓名:简历本,求职意向:软件工程师/软件研发工程师/数据库开发工程师,工作经历:进行数据导入导出 sqoop,mr数据清洗,hive,spark分析统计,以及hadoop集群维护,日常数据维护等...
    237人使用
  • 数据通信工程师简历,基本信息,姓名:简历本,求职意向:网络信息安全工程师/数据通信工程师/通信技术工程师/网络工程师/电信网络工程师,工作经历:电信级的交换机, bras数据配置,熟悉华为,中兴,爱立信,思科的路由器,交换机数据设备,无线网络的优化,3/4G无线网络优化...
    0人使用
  • 数据通信工程师简历模板,求职意向:数据通信工程师,工作经历:在中粮可口可乐的这段时间里,主要参与一些根据地方不同,市场环境不同的所需要制定的一些特殊对待快消品的方案,一遍适应当地执行环境,和日常的制定督促可口可乐业代日常项目的跟进,参与和快消品行业的竞品对比和应对方式,处理广告公司和中粮可口可乐的活动促销活动的广告制作,根据销量执行公司下发的政策方案,参与节假日和学校影院的方案申请、活动执行。
    555人使用
  • 数据通信工程师个人简历,基本信息,姓名:简历本,求职意向:数据通信工程师,工作经历:客户业务维护,工程实施跟进,维护机房设备运行,日常故障处理...
    0人使用
  • 软件开发:责任描述:1、参与项目的需求分析和项目构建。2、参与商品展示模块及搜索系统模块的开发及测试3、搜索系统服务接口的开发,及solrCloud的安装及配置4、使用Redis数据库做缓存
    910人阅读
  • 1.参与过多个项目的开发,熟悉常见业务的处理。2. 学习能力强,对新技术有着强烈的好奇心,适应能力强,能很快融入到项目开发中去。3. 逻辑思维能力强,思路清晰,处理问题细心严谨。4. 有较强的团队意识,乐于与用户以及领导,同事沟通,以便于解决项目中遇到的问题。5. 喜欢大数据行业,并打算长期追随大数据行业的发展做下去。
    1045人阅读
  • 负责产品的研发,系统性能调优,必要的技术支持1.中联税审项目 c++,Excel2.大信合并系统 VC++,Excel,Mongdb3.数据处理平台 myeclipse,Jdk,Hadoop2.x,hive,sqoop,zookeeper4.业务报表系统 myeclipse ,jdk, tomcat,jsp,servlet........
    2699人阅读
  • 根据有关标的客户的信息数据,适用相应的模型对其进行风险识别并分级。同时根据技术的发展及相关监管部门政策的调整而研发相适应的风险识别模型,同时就新的模型与技术部沟通、推进、实现,与运营部沟通、协调并推向市场,与设计部协调、调整、重新设计网页、APP界面。
    32人阅读
  • 项目介绍我们的日志数据来源有2个,一个是IIS日志,一个是trace日志。IIS日志主要用于记录用户和搜索引擎对网站的访问行为。trace日志主要记录用户在网站上的操作行为。用户在网页上的每次点击操作都会生成一条日志记录。我的工作是利用spark对trace日志进行离线和实时分析。需求一:商品搜索分析这主要是分析用户用户搜索了哪些产品。对日志进行处理后取得相应字段后,按照vid访客ID和siteI
    56人阅读