• 1、利用离线式大数据分析平台,统计联通手机用户的身份属性以及行为偏好(包括用户的基本信息、终端偏好、通信行为、互联网偏好,信令位置等),形成用户画像,为公司产品运营提供数据支撑。2、技术方面主要用到的HDFS分布式文件系统,mapreduce计算框架,hive数据仓库,MySQL、Oracle数据库。开发环境为Linux,熟悉shell脚本编程、Hql以及PL/SQL存储过程开发3、日常工作主要是
    简历本 发表于 08-07 2225人阅读
  • 在分支任职大数据工程师,负责大数据产品项目组与咪咕音乐有限公司业务支撑中心部门项目开发及运维工作,主要负责工作内容:1、负责业务支撑中心的一级VGOP、咪咕杭州研发中心对外供数的所有数据维护以及新增接口的开发、增、删、修、调整字段类型等。2、负责中央音乐平台对外全国分省供数业务,涉及到的业务有咪咕彩铃、铃音盒、客户端使用及发展、振铃、全曲及各大话单的数据业务开发及运维、新增加接口数据各省份需求。3
    简历本 发表于 07-04 5240人阅读
  • 项目介绍针对医院行业目前面临的运维挑战,推出"医院行业智慧运维解决方案",通过深度剖析业务系统组件及业务流量定位问题根源,快速分析问题,辅助运维人员及时解决问题,为领导提供决策依据。我的职责1、负责开发和维护Java后端服务,为用户提供稳定可靠的服务;2、负责开发和维护基础服务,构建安全可靠的服务平台;3、负责Java相关的应用开发。
    简历本 发表于 10-09 4208人阅读
  • 1.AT生产线的日常维护和保养计划制定。2.AT生产线突发问题解决。3.生产线生产程序准备4.负责生产线FOR改善5.日常工艺会议组织6.密切联系相关生产单位和部门7.培训工艺技术员和设备技术员8EWAK,C-D样件的准备和生产。9.24小时On-call 支持产线运营10.生产线相关文件更新及管理(FMEA, PQP, TPM, WI, etc.)11.日常巡线
    简历本 发表于 12-15 373人阅读
  • 拥有两年的大数据开发经验,对java,Hadoop,kafka,fulme,scala,spark,python等相关技术可以熟练应用,对于数据非常敏感,在工作中出现的问题,有较强的解决能力;善于沟通,可以非常好的处理与同事的人际关系,比较受同事们的欢迎;
    简历本 发表于 07-01 14737人阅读
  • 基本信息,姓名:简历本,意向:销售数据分析,工作经历,工作描述:06年8月~09年9月,负责全国保养备件订单管理;全国保养FHR系统管理及报表汇总;全国Callback(售后热线)故障报表及系统管理。
    02年7月~06年8月,负责保养部门的办公室日常管理;根据公司政策审查保养合同;管理保养合同;录入保养合同数据至SMS系统;维护SMS系统数据;跟踪管理保养合同收款等合同条款内容;管理应收帐款数据;部门个人费用SFS系统数据录入;根据保养部门业绩向部门经
    简历本 发表于 03-12 2997人阅读
  • 1.负责制定海外工作目标及计划,并带领团队执行。2.策划与组织国内企业家及组织至海外考察交流团组。开拓与维护国内外企业客户及国内外相关组织机构关系并推进与其合作。3.负责提高组织在国际行业内的影响力,与更多海外企业及组织建立长久关系,引进国际先进技术及管理经验。4.负责协会国际论坛及展览会项目整体的海外招商、国内招商、国际组织及媒体交换合作,论坛议题策划及相关演讲人邀请。论坛海外代表注册及展览海外
    简历本 发表于 04-09 992人阅读
  • 简历本整理的数据运营岗位项目经历怎么写,项目描述:项目介绍
    对最近7年国外上映的电影做了数据抓取,拿到豆瓣和IMDB的评分, 总共2000+部,从而对豆瓣和IMDB的评分整体比较,做了直方图,呈正态性分布,说明数据足够。然后又对其使用了交互式散点图,使其对比起来相对更加直观,需要我注意的是IMDB和豆瓣的评分机制有很大差异,豆瓣评分是10分制的,而IMDB是5分制的。 最后对其进行了深度分析,对电影的类别的影响进行了分析,爱情分类的两条回
    简历本 发表于 04-18 7840人阅读
  • 1)进行测试需求分析,制定测试计划,合理分配测试资源; 2)设计开发测试用例,开发相关自动化测试框架及工具3)负责产品集成测试(功能,性能,稳定性),报告并追踪产品问题,提供系统测试及验收报告 4)与开发团队紧密合作,分析系统性能瓶颈,提供优化意见 5)优化软件质量保证流程,提高效率及实用性
    简历本 发表于 03-08 26665人阅读
  • 1.能搭使用Hive和HBase的系统架构,和能用Hive进行海量数据的统计分析以及,能根据需求设计HBase表,能对Hive、HBase进行搭建Hadoop的系统架构和Hadoop集群。 2.能使用开源日志收集框架flume,Kafka消息队列。 3.能够使用Python2.7的版本,进行编程部署, 实现MapReducer框架,解决离线分析的场景和作业。 4.能够使用java,Scala进行项
    简历本 发表于 03-07 17172人阅读
  • 简历本整理的算法工程师岗位项目经历怎么写,项目描述:项目介绍
    要求可以自动化处理飞行载荷数据,可以依据筛选结果对连接强度进行校核,可以依据筛选结果拟合出加载剪力,同时要满足界面友好化,数据结果输入输出可溯源。
    对需求进行分析,分析涉及对象、成员变量、成员函数;基于MFC,单文档模板、对话框以及控件实现上述相关需求:
    a.编写数据文件批处理函数,批量处理所有数据文件,并对数据进行排序、数学运算等操作,实现对飞行载荷数据自动筛选
    简历本 发表于 07-20 6987人阅读
  • 产品涵盖:服务器(高密度云服务器,视频编解码服务器),嵌入式计算机(主板#单板),工控机,加固计算机(CPCI, VPX, VME等),COMe核心模块,通信类设备(ATCA),专注于军工,轨道交通,通信,医疗,自动化等多个中高端行业。工作职责:1、开拓新客户并与行业大客户、代理商建立长期而稳定的合作关系;2、根据公司下达的销售任务,团队制定销售计划,按时或提前完成销售目标。3、了解市场动态及其他
    简历本 发表于 10-08 802人阅读
  • 项目介绍某性能汽车品牌(进口)全国经销商销售顾问培训(厂家签约,负责2016年及2017年华北区、华东区、华南区)- 此培训持续一年,华北、华东、华南共执行十余期;- 培训课程内容包括车型产品核心技术优势,以及试乘试驾驾驶科目实践与话术演练;- 截止到目前,培训人数超过百余人,学员反馈良好。我的职责- 担任车型产品和试乘试驾驾驶培训师;- 开发课程内容和设计制作培训课件;- 分组实施场地试乘试驾,
    简历本 发表于 05-03 516人阅读
  • 项目介绍Intel Expressway Cloud Access 360是一款Intel公司设计开发的云接入控制软件,可向企业用户提供在完全部署云之前所需的基础云启动功能,比如单点登录(SSO)、账户配置(包括权限管理),双因素认证(包括动态密码)等。我的职责负责EndToEnd测试框架、测试用例的开发与维护(Java-based)负责Configuration/UI测试框架、测试用例的开发与维
    简历本 发表于 01-27 2186人阅读
  • 腾讯的面试流程分三种,一种是校园招聘,一种是社招,还有一种是内推。下面简单对三种面试流程作介绍:◆◆腾讯校园招聘面试流程◆◆一面,技术,基础知识,算法,数据结构,网络,操作系统等。 二面,技术,针对以往的项目具体提问,或者纸上写程序。 三面,hr面。 运气不好的没下文,
    简历本 发表于 07-17 42112人阅读
  • 简历本整理的算法工程师岗位个人简历自我评价范文,自我评价:本人硕士学历,计算机技术专业,通过英语六级,可以熟练使用英文进行听说读写,有深厚的计算机理论知识,掌握算法与数据结构,计算机网络,操作系统等方面知识。有一年项目经验,对Java、C等语言有深刻理解,熟悉并发编程、网络编程,熟练使用各种IDE,熟悉算法Android应用开发,曾在项目中开发智能家居大型APP,并对某些第三方库进行源码解析并按需求修改。
    本人曾参与多个项目的研发工作,并对系统中
    简历本 发表于 11-14 5609人阅读
  • DataAnalyst?Analyze,manageanddisseminateinstitutionaldatafromOracledatabases.(SAS/SQL,Tableau)?Developandpreparereportstosupportpolicydevelopmentanddecisionmakingforgraduateprogramsanduniversity.
    简历本 发表于 02-11 1578人阅读
  • 简历本整理的算法工程师岗位自我评价怎么写,自我评价:程宏,男,毕业于上海海事大学,硕士学历,曾先后任职于TCL-阿尔卡特研发工程师,上海帆声图像科技有限公司算法研发部经理,高级算法工程师,高级架构师,管理研发团队近20人,专业从事工业视觉检测系统算法研发,图像识别、机器学习以及神经网络研究,为客户提供基于深度学习的IAI解决方案,提供基于质量大数据增值服务的解决方案。

    关 键 词: C\C++开发 机器视觉 移动机器人 动态目标
    简历本 发表于 08-05 13123人阅读
  • 我在项目组任职大数据开发工程师,每天的工作是将我们所获得的数据,根据业务需求使用mapreduce对源数据进行清洗,例如我们项目组在游戏推广阶段需要统计推广渠道带来的用户数,进而对渠道进行分析,我就需要对logstash抽取的数据做一个清洗,得到需要的字段,并且按照渠道标识对输出文件分区,将相同渠道的用户账号信息写入到一个文件中。最后我们将hive分析出的渠道注册用户数与spark分析出的渠道登陆
    简历本 发表于 08-11 740人阅读
  • 1、擅长sql/hive查询语言; 2、擅长使用R、Python进行数据分析、数据挖掘; 3、熟悉常用的机器学习算法,如逻辑回归、K-Means、SVM、Bagging、Boosting、聚类; 4、熟悉Linux环境及常用命令,了解Hadoop生态系统及MapReduce基本原理; 5、有良好的数理分析素养及数理统计基础,对数据有较强的敏感性和较强的逻辑分析能力,有良好的学习意
    简历本 发表于 06-13 5915人阅读