• 1. 具有较强的学习科研能力。能较好地阅读与理解计算机视觉国际顶级会议文章(ICCV, CVPR, ECCV),对其中相关的算法编程实现解决实际问题,并发表论文以及相关专利。在研期间共发表4篇优秀论文、1项专利。2. 具有良好的深度学习基础。熟悉Caffe的深度学习框架,会运用CNN网络结构(模型为Alexnet、GoogleNet)解决分类问题,了解RNN网络结构(LSTM)以及应用RSCNN进
    简历本 发表于 10-02 2109人阅读
  • 基本信息,姓名:简历本,意向:数据运营,工作经历,工作描述:1,结合业务需求,对网站数据和APP数据进行跟踪和分析,对网站页面设计、流程转化和用户体验提出专业分析意见;
    2,持续监控网站流量、着陆页表现,关键转化流程,主动发现和识别问题,通过日常分析,用数据驱动与支持运营部门优化工作;
    3,将网站相关数据汇总、分析,建立报表体系,为网站运营决策提供数据支持依据。
    4,与BI部门配合建立分析模型,监督、促进公司决策数据模型的完善;
    简历本 发表于 06-01 11346人阅读
  • 1.满足客户的用户挖掘、用户画像、精准投放、用户跨平台关联等需求,为客户提供更精准的跨网络、跨平台、跨业务、跨终端的用户锁定、画像和触达能力2.基于用户上网行为数据,站在行业视角,面向各类客户不同的需求,针对性的对标签化的互联网用户数据进行统计和分析,通过建立行业间共性和行业内特性的分析模型,形成了市场洞察、用户洞察、竞品分析、客户挖掘、渠道分析、营销分析等六大分析门类3.精准营销服务围绕着获客、
    简历本 发表于 03-11 3345人阅读
  • 简历本整理的算法工程师岗位项目经历怎么写,项目描述:项目介绍
    要求可以自动化处理飞行载荷数据,可以依据筛选结果对连接强度进行校核,可以依据筛选结果拟合出加载剪力,同时要满足界面友好化,数据结果输入输出可溯源。
    对需求进行分析,分析涉及对象、成员变量、成员函数;基于MFC,单文档模板、对话框以及控件实现上述相关需求:
    a.编写数据文件批处理函数,批量处理所有数据文件,并对数据进行排序、数学运算等操作,实现对飞行载荷数据自动筛选
    简历本 发表于 07-20 6987人阅读
  • 1、两年销售经验,对客户分析,客户维护市场营销有一定的经验。2、百合集团任职期间月销售额均在20w+,学校期间曾做各种兼职均为销售工作,曾在开学期间,中国移动校园行校园卡销售活动中连续两年销售业绩第一,三日电话卡销售额为11050元。3、大学期间曾自主做过移动互联网端销售,通过各种途径打通线上线下壁垒,零售业绩单月均在2w+ 4、工作态度评价:拥有良好的心态和责任感,吃苦耐劳心理承受能力较强,有较
    简历本 发表于 03-07 2848人阅读
  • 项目介绍基于多通道融合的图像分类算法研究我的职责研究概述:?通过融合空间信息和彩色信息,得到比单一信息更为完备的图像特征矢量,结合多核学习算法,改善图像库不同类之间的区分性,提升分类效果?使用基于颜色结构信息引导的修复算法,对存在丢失像素的Kinect景深图进行修复。结合垂线水平线修正和物理支撑关系,分割景深图中物体。?分析经典BOW算法的语义不稳定属性,并使用可视化算法,分析稀疏编码和优化词典对
    简历本 发表于 04-01 7696人阅读
  • 职称:工程师。从事信息处理方面的算法研究,主要包括目标检测和跟踪、复杂电磁环境下的信号分选研究,运用MATLAB工具进行算法仿真研究,及其windows下的基于MFC的软件实现。有国家大型电子信息项目开发经验,作为项目的分机负责人全面负责算法软件的代码书写,调试及整机调试和外场试验。
    简历本 发表于 10-02 3957人阅读
  • 一:负责公司工程业务:1)负责部门全面的业务开展,团队组建,人员培训,;与公司财务,售后,仓库等多部门顺利对接开张工作等全面事宜,根据公司下达年度销售目标及业务规划,制定具体的业务开展计划及各业务阶段销售动作完成目标;2)分析区域内的项目详细状况、最准项目摸排筛选,合理分配资源到相关业务人员,以及项目信息的反馈和竞争品牌参与状况,及时向总经理汇报;3)培养部门员工的团队协作意识,组建一个有竞争力,
    简历本 发表于 12-30 489人阅读
  • 简历本整理的算法工程师岗位自我评价范文,自我评价:1、专业基础扎实,业务能力强。
    2、工作认真负责,能够做好领导交办的事情。
    3、面对新问题肯钻研,能够通过尝试不同方法解决问题。
    4、勤奋上进,有很强的自我提高意识,能够利用业余时间不断提高自我。
    5、性格随和,有较好的团队合作意识,能够站在他人立场换位思考。
    简历本 发表于 04-25 5987人阅读
  • 简历本整理的大客户管理岗位自我评价范文,自我评价:A面: 我性格外向,踏实肯干,一切以结果为导向,有超强的团队精神,勇于承担责任,严格要求自己,与人友好真诚。
    B面 1. 对销售理念有全面的认识,有系统的营销培训2.不同类型的客户,拟订不同的计划3.深刻了解公司的企业文化,且落实到工作当中4.推广公司的品牌,树立良好的企业形象5.相信公司,相信自己
    C.有渠道开拓及维护、大型客户开拓及维护、行业项目操作等多重经验,熟悉产品和项目
    简历本 发表于 10-19 1996人阅读
  • 简历本整理的算法工程师岗位项目经验范文,项目描述:项目介绍
    要求可以自动化处理飞行载荷数据,可以依据筛选结果对连接强度进行校核,可以依据筛选结果拟合出加载剪力,同时要满足界面友好化,数据结果输入输出可溯源。
    对需求进行分析,分析涉及对象、成员变量、成员函数;基于MFC,单文档模板、对话框以及控件实现上述相关需求:
    a.编写数据文件批处理函数,批量处理所有数据文件,并对数据进行排序、数学运算等操作,实现对飞行载荷数据自动筛选
    简历本 发表于 01-04 5543人阅读
  • 项目介绍Apply the SemaFORR cognitive architecture and image based detection techniques to the ROS navigation system, to achieve novel navigation system with better perception about the working environment
    简历本 发表于 03-16 3182人阅读
  • 项目介绍我们的日志数据来源有2个,一个是IIS日志,一个是trace日志。IIS日志主要用于记录用户和搜索引擎对网站的访问行为。trace日志主要记录用户在网站上的操作行为。用户在网页上的每次点击操作都会生成一条日志记录。我的工作是利用spark对trace日志进行离线和实时分析。需求一:商品搜索分析这主要是分析用户用户搜索了哪些产品。对日志进行处理后取得相应字段后,按照vid访客ID和siteI
    简历本 发表于 06-15 4267人阅读
  • DataAnalyst?Analyze,manageanddisseminateinstitutionaldatafromOracledatabases.(SAS/SQL,Tableau)?Developandpreparereportstosupportpolicydevelopmentanddecisionmakingforgraduateprogramsanduniversity.
    简历本 发表于 02-11 1578人阅读
  • 我在项目组任职大数据开发工程师,每天的工作是将我们所获得的数据,根据业务需求使用mapreduce对源数据进行清洗,例如我们项目组在游戏推广阶段需要统计推广渠道带来的用户数,进而对渠道进行分析,我就需要对logstash抽取的数据做一个清洗,得到需要的字段,并且按照渠道标识对输出文件分区,将相同渠道的用户账号信息写入到一个文件中。最后我们将hive分析出的渠道注册用户数与spark分析出的渠道登陆
    简历本 发表于 08-11 740人阅读
  • 拥有两年的大数据开发经验,对java,Hadoop,kafka,fulme,scala,spark,python等相关技术可以熟练应用,对于数据非常敏感,在工作中出现的问题,有较强的解决能力;善于沟通,可以非常好的处理与同事的人际关系,比较受同事们的欢迎;
    简历本 发表于 07-01 14737人阅读
  • matlab/simulinkcan通讯C语言pythongit版本跟踪
    简历本 发表于 05-04 4032人阅读
  • 1.AT生产线的日常维护和保养计划制定。2.AT生产线突发问题解决。3.生产线生产程序准备4.负责生产线FOR改善5.日常工艺会议组织6.密切联系相关生产单位和部门7.培训工艺技术员和设备技术员8EWAK,C-D样件的准备和生产。9.24小时On-call 支持产线运营10.生产线相关文件更新及管理(FMEA, PQP, TPM, WI, etc.)11.日常巡线
    简历本 发表于 12-15 373人阅读
  • 2015.3-2016.10,在智慧互通科技有限公司担任市场经理,负责北京、上海、南京、天津、石家庄等地区的市场销售工作。前期主要以地推的形式进行线下推广,发掘客户并发展意向客户,促成签单;后期以销售停车场软、硬件及设备为主。
    简历本 发表于 07-16 1239人阅读
  • [产线大数据自动化 专案]编写生产线程式实现工业自动化,以及大数据化,并为生产线的运行提供技术支持。通过对生产线上所有设备传送到Kafka的数据进行实时监听,并依据不同标准对所有数据进行处理,定时反馈给Kafka。同时对异常数据进行累计判断或者清零,对不同级别的异常抛送不同级别的警报到web service,以便送到相应的客户端,发出提示以及警报。后续分别将处理过的数据通过Nifi 传入MQTT和
    简历本 发表于 08-04 7797人阅读