社招 | Data Infra团队岗位推荐,构建高效稳定的大数据基础系统
No.1
业务挑战
高速发展的业务规模和复杂的业务场景,带来多元、海量和复杂的数据。
亿级用户和市场带来的巨额互联网流量,为数据系统的稳定性、性能、安全、成本提供挑战和机遇。
海量的数据规模、复杂的数据链路和逐渐实时化的数据存储和计算,以及查询对底层大数据系统带来的技术难题。
No.2
业务优势
极致的挑战赋予我们对技术深度和广度的极致追求。
经验丰富的技术团队,高效互助、彼此成就的团队氛围。
国际化的工作场景和工作模式。
No.3
招聘岗位
大数据运维工程师
岗位职责
1、负责自动化运维与部署工具和模块的管理和开发;
2、负责大数据平台管理工具和模块的管理和开发;
3、开发自动化运维脚本,配合监控系统,优化整个运维的流程;
4、负责公司日常的运维工作,对生产环境的服务器进行部署及优化,编写相关的技术文档。
任职要求
1、全日制本科及以上学历,1年及以上相关工作经验,精通Linux原理、系统、应用知识,深入了解互联网企业主流和常用的开源系统(如LVS、Redis、Nginx/Tenginx、MFS等)的架构、配置、优化,并有丰富的方案策划、部署、实施和应用经验,有二次开发经验者优先;
2、精通Python、Shell、Perl、Ruby等至少一种脚本语言,能熟练使用来完成日常系统运维等工作;
3、喜欢钻研技术,具有分享精神,喜欢和数据打交道。
加分项
1、熟悉Hadoop、Hbase、Druid、Spark集群部署和运维,并有上百台规模集群运维经验优先;
2、有大型互联网企业运维工作经验,有大规模集群管理经验优先。
扫码投递
初级岗位
(需1年以上工作经验)
高级岗位
(需3年以上工作经验)
大数据架构工程师
岗位职责
1、构建分布式大数据服务平台,参与和构建公司数据系统,包括海量数据存储、离线/实时计算、实时查询、大数据系统运维等;
2、服务各种业务需求,服务日益增长的业务和数据量;
3、深入源码内核改进优化开源项目,解决各种Hadoop、Spark、Hbase等系统疑难问题,参与到开源社区建设和代码贡献。
任职要求
1、全日制本科及以上学历,1年及以上相关工作经验,理解分布式系统基本技术和原理,有深入跟踪问题解决问题的能力;
2、至少精通一种 Java/Scala/C++ 程序开发;
3、熟悉一种脚本语言,如Python、Bash,熟悉Linux/Unix开发环境;
4、喜欢钻研技术,具有分享精神,喜欢和数据打交道。
加分项
1、熟悉常用开源分布式系统,熟悉Hadoop、Hive、Spark、Flink、HBase、Presto、Druid、Kylin、ElasticSearch等开源系统之一的源码,有深入使用和研究经验者优先;
2、有大规模分布式系统开发、维护经验,有故障处理能力,源码级开发能力者优先。
扫码投递
初级岗位
(需1年以上工作经验)
高级岗位
(需3年以上工作经验)
Java服务端开发工程师
岗位职责
1、负责大数据周边生态系统的服务端整体架构设计与相关模块设计,要求系统具有高可用性和可扩展性;
2、根据系统设计,完成系统的服务端开发与测试;
3、负责系统的服务端调优,保证系统服务端的质量和性能;
4、负责设计、开发、测试等相关文档的编写。
任职要求
1、全日制本科及以上学历,1年及以上相关工作经验,Java基础扎实、熟悉多线程、熟悉Java网络编程、了解设计模式、熟悉模块化编程、 熟悉主流Web开发技术;
2、精通 Spring MVC、iBATIS、Hibernate 等常用开发框架;
3、熟悉Mysql,熟悉常用的SQL优化方案;
4、喜欢钻研技术,具有分享精神,喜欢和数据打交道。
加分项
1、熟悉Hadoop、Hive、Hbase、Spark等大数据相关开源系统优先;
2、有Web系统架构设计经验者优先;
3、有Java后台相关工作经验,有大型互联网公司或大数据数据周边生态系统开发经验者优先。
扫码投递
初级岗位
(需1年以上工作经验)
高级岗位
(需3年以上经验)
LEARN MORE
点击阅读原文,加入我们