手机阅读

2023年大数据主管岗位职责描述 大数据管理职位(四篇)

格式:DOC 上传日期:2023-04-03 22:12:07 页码:13
2023年大数据主管岗位职责描述 大数据管理职位(四篇)
2023-04-03 22:12:07    小编:zdfb

在日常的学习、工作、生活中,肯定对各类范文都很熟悉吧。大家想知道怎么样才能写一篇比较优质的范文吗?下面是小编帮大家整理的优质范文,仅供参考,大家一起来看看吧。

大数据主管岗位职责描述 大数据管理职位篇一

1.从事前沿大规模人工智能与机器学习算法的研究与分布式开发;

2.将算法应用到海量数据中,提升/挖掘iot物联网大数据场景及大数据平台建设;

3.提供开放平台,提供业内领先的人工智能与机器学习服务.

1.硕士博士学位及博士后研究,计算机相关专业毕业;

2.五年以上实际机器学习或深度学习应用工作经验;

3.丰富的实际问题解决经验;

4.有丰富c++或java开发经验,熟练 phython,

5.熟悉 pattern recognition and classification 及常用统计模型和机器学习算法;

6.对概率统计和机器学习基本原理有扎实理解;

7.精通 machine learning, data mining, and algorithm 研发;

8.熟悉caffe/tensorflow/mxnet/torch/theano等训练框架;

9.熟悉linux开发环境,熟悉开源工具,有相关领域经验者优先.

有机会接触千亿级海量数据的离线和实时的数据处理,涉及java,spark,hive,spark streaming,hbase,elasticsearch,flink等大数据的前沿技术和多云的统一架构。

大数据主管岗位职责描述 大数据管理职位篇二

1.负责业务需求的沟通、分析,挖掘潜在业务需求,撰写需求说明书;根据项目计划做好项目各个阶段的组织工作,将工作落实到位;承担业务需求到hadoop技术体系应用转换工作;大数据平台部署、管理、优化等;

2.负责调查项目的技术现状和技术需求,编写技术需求书和实施技术方案,协调解决开发中的技术难题,负责执行项目计划并实现项目目标;;

3.负责大数据项目功能分解、功能质量保障、风险管理、与客户协调沟通;

4.参与大数据平台的数据生命周期规划、管理及数据管理规范制定;

5.根据项目需求,分析数据,建立适应的模型并解决业务需求,并规划和设计出对应的数据专题应用,以提升数据价值;。

1.本科以上学历,计算机相关专业,2年以上相关工作经验;

2.熟练掌握hadoop、hive、hbase、spark、kafka、storm等相关大数据技术,并具备基于以上技术的项目管理实施经验;

3.对数据类项目的架构、流程、数据加工作业、作业调度、作业监控、元数据、数据质量管理有深刻认识,并能运用到大数据项目管理中;

4.具备大数据采集、清洗、挖掘相关系统实施经验,有传统数据仓库项目管理实施经验者优先考虑。

大数据主管岗位职责描述 大数据管理职位篇三

duties/responsibilities岗位职责:

对内独立与产品方向的`需求部门沟通,根据实际需求提供切实有效的解决方案,并产出可落地的执行建议/策略

对外独立与供应商沟通,把控供应商服务质量及效率

独立完成新品项目数据洞察和挖掘

独立完成产品升级项目数据洞察和挖掘

独立完成外采项目的内部流程相关工作,包括采招流程、付款流程、合同流程、项目进度追踪等

完成领导安排的其他临时性工作

1、本科及以上学历,营销、社会学、心理学、统计、数学相关专业

2、3-4年数据研究经验,包括不限于零售数据、新品测试、产品升级、用户画像等方面的数据分析的工作经验;有快消品行业经验优先

3、熟练使用至少一种专业数据分析软件能力

4、熟练使用office软件

5、具备较强的学习能力、沟通能力、洞察能力和创新精神

6、优秀的团队合作精神,能够承受一定的压力且具有高效的执行能力,能够适应电商的工作节奏

7、性格活泼开朗,工作细致认真、思维活跃、具有敏锐的市场洞悉力

大数据主管岗位职责描述 大数据管理职位篇四

1. 负责基于hadoop/storm/spark生态的大数据存储平台搭建和部署;

2. 参与数据抽取、清洗、转化等数据处理程序开发;

3. 参与数据仓库的设计以及基于大数据平台上业务数据挖掘。

4. 参与大数据分布式应用系统服务器端或客户端软件开发工作。

5. 参与用户建模等算法设计和优化;

6. 分析用户行为数据,设计合理的算法模型及策略;

7. 协助完成日常数据分析;

1. 大学本科或以上学历,计算机相关专业,两年以上工作经验,spark/hadoop全栈优先,精通任意一栈者也可;

2. 熟悉hadoop、spark、spark生态圈及hadoop生态圈中的常用组件,如spark、hive、zookeeper、kafka、storm、redis、hbase、presto等全部或者部分组件;

3. 熟悉数据库开发例如:oracle、mysql;

4. 熟悉java开发,有大数据平台相关开发经验;

5. 掌握至少一种nosql数据库;

6. 熟悉linux环境和命令,能编写简单的shell脚本;

7. 工作积极主动,具备较强的沟通能力;具有良好的学习能力和团队合作精神

您可能关注的文档