岗位职责:
1.基于Hive,Spark,Hadoop的计算架构,进行大数据开发工作;
2.在分布式集群上进行Hive和Spark数据开发;
3.能够定位数据计算任务的瓶颈并进行性能优化;
...
岗位职责:
1、承担建设基于Hadoop/Spark生态的大数据离线/实时处理平台;2、参与业务数据、生产日志的抽取、转储、检索等相关工作;3、跟进大数据前沿技术的发展,将合适的技术方案适时引入业务场景;
任职要求:
1、2~3年互联网大数据处理经验;有实时处理工作经历并有一定解决方案者优先;2、熟悉大数据开源技术,包含(不限于)Hadoop/Spark/SparkStreaming/Hive/Hbase/Impala/Flume/Kafka/Solr/Es分布式框架/计算/存储/检索等相关技术,并有一定的Hadoop生态系统运维经验;3、掌握Python或Java一种开发语言;4、掌握SQL,SparkSQL进行数据开发;较好的SQL性能调优经验;5、优秀的分析、解决问题能力,充分的数据敏感度;有一定的高性能支撑经验和故障排除能力;6、具备强烈的工作责任感,喜欢钻研,态度乐观,团队意识强。
岗位职责:
1、进行的数据处理、查询,统计和分析工作;2、数据提取、数据统计分析、SQL性能优化;3、完成公司安排的其他数据相关工作和任务。
任职要求:
1、了解ORACLE等常用数据库,具有较强的SQL语言功底,有较好的SQL性能调优经验,能独立完成业务方数据需求;2、熟练使用oracle存储过程、触发器、函数、临时表等执行过程对象;3、索引、sql代码优化等方面对数据库性能进行优化;4、对业务数据敏感,有较强的数据分析规划驾驭能力;5、思维缜密、清晰,较好的逻辑分析能力和沟通表达能力;6、具有团队协作精神,有强烈的责任心和敬业精神。
岗位职责:
1.有C#开发经验;
2.熟悉.net技术平台,精通.NET程序开发;
3.熟悉MVC的构架及开发;
...
岗位职责:
1、运用etl、sql、java等常见技术进行功能开发;
2、对需求进行再设计并且出具设计文档;
3、参与项目的技术选型,完成技术选型后的技术应用工作;
3、配合测试人员完成开发工作的测试,确保开发工作的质量。
任职要求:
1、全日制本科及以上学历,计算机等相关专业;
2、工作经验2年以上;
3、工作认真负责、积极主动,具备良好的合作及沟通能力、学习能力;
...