spark程序開發(fā)人員要求:
1、掌握Spark基本概念及運行機制,熟悉Spark API,能基于Spark API 進行開發(fā)。
2、熟練使用Spark對數(shù)據(jù)進行分析和處理; 開發(fā)語言可以是Python、JAVA、SCALA。
3、熟悉Hadoop大數(shù)據(jù)生態(tài)組件,包括但不限于HDFS、SPARK、HIVE等。
4、學歷要求本科及以上,計算機相關(guān)專業(yè)。
flink程序開發(fā)人員要求:
1、計算機相關(guān)專業(yè)(計算機科學與技術(shù)、軟件工程、信息管理、網(wǎng)絡(luò)通訊等)本科及以上學歷
2、熟練掌握 Hadoop 大數(shù)據(jù)生態(tài)相關(guān)開發(fā)技術(shù),能夠熟練部署Hadoop生產(chǎn)集群并進行功能開發(fā);
3、熟練掌握Flink、Hive、Spark、Yarn、HDFS等相關(guān)主流大數(shù)據(jù)開發(fā)技術(shù),熟練掌握Flink技術(shù)并具有實際開發(fā)或者項目經(jīng)驗者優(yōu)先;
4、掌握Java高級開發(fā)技能,同時掌握包括Sacla\Python在內(nèi)的一種或多種開發(fā)技術(shù)并擁有實際開發(fā)經(jīng)驗者優(yōu)先;j