Bank /
【數位驅動】資料科學工程師(數數發中心,DDT)
Content
1.數據介接、清洗、處理與數據模型的程式開發
2.網路爬蟲、數據工程 API 程式撰寫
3.與數據分析師合作,進行機器學習、深度學習與統計分析模型的維運化程式開發
4.ETL Pipline 的工具開發與維護
5.協助新系統上線
6.數據工程的自動化、監控、與維運模組開發
- Salary Range: Negotiable (Regular salary is 40,000 and above.)
- Type: Full-time
- Expatriation: Business trip/expatriation not required
- Work hour: Day shift
- Location: Taipei City Xinyi District
- Leave system: Negotiable
- Required number of employee: No restriction
Requirements
- Work experience: No restriction
- Experience: No restriction
- Required education level: No restriction
- Required program: No restriction
- Required language ability: No restriction
-
Knowledge:
Required:Ansible、ETL、大數據工程技術、軟體程式設計、Shell Script、SQL、Github、結構化程式設計、Airflow、Hue、Git、軟體整合測試、問題追蹤處理(Bug tracking)、ANSI SQL、Data Architect、Python、作業系統基本操作、功能測試(function test)、ELK、Linux
Preferred:壓力測試(stress test)、MongoDB、hadoop、OpenShift、Elastic Stack、Hive、Flask、NoSQL、HDFS、UML、GCP、MS SQL、Node.js、資料結構、PostgreSQL、XML、Kubernetes、規劃測試內容及建置測試環境、軟體工程系統開發、AWS、SQLite、Kafka、Promerheus、Docker、Data Modeling、資料倉儲架構、GIS、資料庫系統管理維護、測試計劃及測試報告書撰寫、Spark、Azure、伺服器網站管理維護、敏捷開發(Scrum)、ArcGis、Teradata - License: No restriction
-
Other requirements:
加分條件
1.曾使用過 Hadoop/Spark/Hive 等大數據平台開發經驗
2.熟悉大數據儲存及運算平台及 Cloudera CDH 各套件服務的建置與管理經驗
3.曾使用過任一種 streaming framework, 例如: Spark streaming,
4.曾開發過 API
5.具 ETL pipeline 的工具開發/維護經驗 如: Airflow / Oozie/NIFI等