专栏名称: 36大数据
关注大数据和互联网趋势,最大,最权威,最干货的大数据微信号(dashuju36)。大数据第一科技媒体。不发软文,只做知识分享。
目录
51好读  ›  专栏  ›  36大数据

哪些大学可报考大数据专业?2017年大数据专业就业前景

36大数据  · 公众号  · 大数据  · 2017-06-06 07:44

正文

请到「今天看啥」查看全文


2、大数据开发工程师

北京大数据开发平均工资:¥ 30230/月。

大数据开发工程师/专家 岗位指责 (引自 滴滴出行)

职位描述:

1、构建分布式大数据服务平台,参与和构建公司包括海量数据存储、离线/实时计算、实时查询,大数据系统运维等系统;

2、服务各种业务需求,服务日益增长的业务和数据量;

3、深入源码内核改进优化开源项目,解决各种hadoop、spark、hbase疑难问题,参与到开源社区建设和代码贡献;
岗位要求:

1、计算机或相关专业本科以上学历(3年以上工作经验);

2、精通C++/Java/Scala程序开发(至少一种),熟悉Linux/Unix开发环境;

3、熟悉常用开源分布式系统,精通Hadoop/Hive/Spark/Storm/Flink/HBase之一源代码;

4、有大规模分布式系统开发、维护经验,有故障处理能力,源码级开发能力;

5、具有良好的沟通协作能力,具有较强的分享精神;

6、对Kudu、Kylin、Impala、ElasticSearch,github等系统有深入使用和底层研究者加分;


3、Hadoop开发工程师

北京hadoop平均工资:¥ 20130/月,取自 1734 份样本。

Hadoop开发工程师岗位职责 (引自新浪网)

职位描述:

1.参与优化改进新浪集团数据平台基础服务,参与日传输量超过百TB的数据传输体系优化,日处理量超过PB级别的数据处理平台改进,多维实时查询分析系统的构建优化;

2.分布式机器学习算法在数据平台的构建与优化(包括常见的LR、GBDT、FM、LDA、Word2Vec及DNN等);

3.深入源码改进各种开源大数据项目(包括Hadoop、Spark、Kafka、HBase等)。

任职要求:

1.计算机或相关专业本科以上学历;

2.熟悉Linux环境下开发,熟练掌握C++/Java/Scala等一种以上编程语言;

3.熟悉Hadoop生态系统相关项目,精通以下项目之一的源码(Hadoop/Spark/Kafka/HBase/Flume/ElasticSearch/Druid/Kylin);

4.具备良好的学习能力、分析能力和解决问题的能力。


4、数据挖掘工程师

北京数据挖掘平均工资:¥ 21740/月,取自 3449 份样本,较 2016 年,增长 20.3%;

数据挖掘工程师招聘要求( 引自蚂蚁金服集团技术部

工作职责:

1、在分布式系统上进行数据计算、挖掘、和实现算法;
2、数据仓库模型设计和建立;
3、数据梳理流程的实现和维护;
4、物流场景下的地址文本、空间属性研究和分析。

任职资格:

1、本科以上学历,有扎实的统计学,数据挖掘,机器学习,自然语言识别理论基础,一种或几种以上的实际使用经验。
2、熟悉聚类、分类、回归等机器学习算法和实现,对常见的核心算法和数据挖掘方法有透彻的理解和实际经验。
3、深入理解Map-Reduce模型,对Hadoop、Hive、Spark、Storm等大规模数据存储于运算平台有实践经验。
4、有扎实的计算机理论基础,至少熟悉一种编程语言,Java优先。
5、有三年以上互联网公司或者海量数据处理工作经验,大数据挖掘、分析、建模经验

5、算法工程师

北京算法工程师平均工资:¥ 22640/月,取自 10176 份样本。







请到「今天看啥」查看全文