Hadoop大数据工作职责
岗位职责:
1.负责搭建大数据平台,能根据实际需求对平台进行优化配置,了解mapreduce,hive,hbase,spark等原理。2.负责搭建hadoop定时任务管理平台方便研发创建mapreduce定时任务,并对任务进行监控报警
3.负责集群容量规划、扩容及性能优化,持续跟进cldouera的变化及新特性;
4.深入研究大数据业务相关运维技术,持续优化集群服务架构,探索新的大数据运维技及发展方向。
任职要求:
1.有Hadoop生态系统的运维经验,了解Hadoop、Storm、Spark、Flume、Kafka这些组件的原理。熟练的进行运维操作
2.具备Java开发能力,对Hadoop源码有研究,具备部署、实施、维护hadoop及相关组件的能力;
3.熟悉服务器监控、日志分析,熟悉运维自动化,熟悉集群和高可用技术并具备生产环境实施和维护管理的经验;
4.熟练使用CM界面进行运维监控和优化调整。
5.了解impala、hbase、hive等运行原理。
6.有团队合作精神,工作主动、责任心强,善于沟通。
招聘Hadoop大数据的工资一般是多少
数据标注员 ¥4520元
游戏数据分析师 ¥16750元
大数据开发 ¥18120元
南京数据标注工程师 ¥3500元
dba数据库管理员 ¥16090元
无锡数据研发 ¥18330元
数据分析师 ¥12690元
数据统计员 ¥4540元
数据库开发工程师 ¥12060元
大数据 ¥12390元