基本信息,姓名:简历本,意向:大客户销售代表,工作经历,工作描述:主要工作职责
。1、带领团队完成业绩目标。
2、制定销售计划。
根据公司下达的销售任务,制定本部门的销售计划,落实计划回款,并核算营销费用
3、销售战术的制定。
根据公司总体战略安排,制定、调整本部门的销售战术,即具体的业务开拓方式。
包括:客户切入方式、客户追踪方式;及新的战术的规划实施。
4、部门内员工的培训。
简历本 发表于 10-27
2462人阅读
word、PPT、word、AccessspssERP、LMIS(WMS)、TPL、TMS
简历本 发表于 01-26
1458人阅读
简历本整理的数据运营岗位自我评价怎么写,自我评价:你好,我叫余青青。我是94年的姑娘,我性格活泼,有上进心,亲和力强。去年毕业于浙江医药高等专科学校,目前在读函授浙江工商大学工商企业管理专业。
我有一年的医药销售工作经验,工作上执行、学习能力强,思路清晰,具有较好的团队协作能力,对市场数据的敏感。大学时期考过计算机二级,能熟练操作Excel的函数,数据透视表,图表等功能,目前在家自学SQL Server,SPSS已经一月有余。所以我想找一
简历本 发表于 04-06
7211人阅读
在分支任职大数据工程师,负责大数据产品项目组与咪咕音乐有限公司业务支撑中心部门项目开发及运维工作,主要负责工作内容:1、负责业务支撑中心的一级VGOP、咪咕杭州研发中心对外供数的所有数据维护以及新增接口的开发、增、删、修、调整字段类型等。2、负责中央音乐平台对外全国分省供数业务,涉及到的业务有咪咕彩铃、铃音盒、客户端使用及发展、振铃、全曲及各大话单的数据业务开发及运维、新增加接口数据各省份需求。3
简历本 发表于 07-04
5240人阅读
负责产品的研发,系统性能调优,必要的技术支持1.中联税审项目 c++,Excel2.大信合并系统 VC++,Excel,Mongdb3.数据处理平台 myeclipse,Jdk,Hadoop2.x,hive,sqoop,zookeeper4.业务报表系统 myeclipse ,jdk, tomcat,jsp,servlet........
简历本 发表于 04-09
5708人阅读
软件开发:责任描述:1、参与项目的需求分析和项目构建。2、参与商品展示模块及搜索系统模块的开发及测试3、搜索系统服务接口的开发,及solrCloud的安装及配置4、使用Redis数据库做缓存
简历本 发表于 09-15
6740人阅读
项目介绍该项目主要是通过相关的房地产数据(宏观政策、土地市场、住宅市场)对各城市房地产产业进行研究分析,并以报告形式呈现,一般以PPT方式编写,完成后转成PDF。我的职责在研究报告中我主要负责宏观政策和土地市场的编写,通过数据分析来实现对该城市房地产产业的研究分析。
简历本 发表于 11-07
8731人阅读
1)进行测试需求分析,制定测试计划,合理分配测试资源; 2)设计开发测试用例,开发相关自动化测试框架及工具3)负责产品集成测试(功能,性能,稳定性),报告并追踪产品问题,提供系统测试及验收报告 4)与开发团队紧密合作,分析系统性能瓶颈,提供优化意见 5)优化软件质量保证流程,提高效率及实用性
简历本 发表于 03-08
26665人阅读
在这家公司的工作是销售、售后、技术指导培训于一身;负责过江西和浙江产品销售,对政府单位领导做产品介绍;联系有成为代理商的公司;对于老客户做售后技术培训,同时介绍新产品,经过我做的售后,领导们很认可,遇到问题和买设备耗材都通过我,也会给我介绍新的客户;参与新产品的开发工作,为公司发展建言献策;
简历本 发表于 02-24
1721人阅读
1. 本人在爱科海迅贸易有限公司从事数据类分析一职,此公司是一家通信公司,与中国电信是合作伙伴,负责收集整理销售数据。定期出报告,以PPT或表格形式呈现。根据销售数据制作出相关运营销售分析报告。包括数据的日报,周报,月报。进行各种数据分析和综合数据处理,加工成有用的信息为决策作为依据。监控每日运营数据及指标,及时对异常数据做出预警。同时,及时响应数据统计需求,提供固定数据报表,并对数据进行详细阐述
简历本 发表于 05-02
9375人阅读
DataAnalyst?Analyze,manageanddisseminateinstitutionaldatafromOracledatabases.(SAS/SQL,Tableau)?Developandpreparereportstosupportpolicydevelopmentanddecisionmakingforgraduateprogramsanduniversity.
简历本 发表于 02-11
1578人阅读
基本信息,姓名:简历本,意向:大数据分析师,工作经历,工作描述:我们公司的数据主要来源是web的日志数据,app端的行为数据,埋点数据,其他大型旅游网站的爬虫数据和我们公司本地数据库中的数据。然后我们将web中的产生的日志数据通过flume抽取到kafka中,通过spark streaming进行实时清洗,将日志字段全部打散并按需求进行特定格式转换,然后把清洗过的数据和kafka中的数据投递到HDFS中按照业务需求做mr清洗,清洗后的数据导入到hive仓库中用
简历本 发表于 06-17
14015人阅读
1.能搭使用Hive和HBase的系统架构,和能用Hive进行海量数据的统计分析以及,能根据需求设计HBase表,能对Hive、HBase进行搭建Hadoop的系统架构和Hadoop集群。 2.能使用开源日志收集框架flume,Kafka消息队列。 3.能够使用Python2.7的版本,进行编程部署, 实现MapReducer框架,解决离线分析的场景和作业。 4.能够使用java,Scala进行项
简历本 发表于 03-07
17172人阅读
基本信息,姓名:简历本,意向:数据分析师,工作经历,工作描述:2011年7月至2012年5月在浙江盘石信息技术有限公司技术研究部任数据分析师一职,工作主要有:电子商务行业报告的编写;新版官网英文版的部分翻译;网站联盟的研究;数据的搜集、整理与分析;互联网广告的调查与分析。
其中重要的项目如下:
1、撰写电子商务行业报告。参与撰写由中国电子商务数字服务中心(CECA Didital Service Center)在北京发表的
简历本 发表于 08-11
43853人阅读