Wymagania (obligatoryjne)
- Minimum 3 lata doświadczenia jako DevOps Engineer / Administrator systemów Big Data,
- Udział w co najmniej jednym wdrożeniu produkcyjnym projektu IT,
- Doświadczenie w projektach z obszaru Big Data / przetwarzania dużych wolumenów danych,
- Doświadczenie z klastrami High Availability,
- Znajomość i umiejętność zarządzania HDFS,
- Znajomość ekosystemu Apache Hadoop (np. Airflow, Ranger) w zakresie instalacji i konfiguracji,
- Znajomość i umiejętność konfiguracji Apache Spark,
- Znajomość Ansible,
- Znajomość standardów CI / CD,
- Znajomość Kubernetes oraz Docker,
- Umiejętność pisania skryptów w powłoce (shell),
- Dobra organizacja pracy własnej i zespołu, orientacja na cele,
- Umiejętność automatyzacji codziennych zadań,
- Komunikatywność, kreatywność, samodzielność, odporność na stres,
- Odpowiedzialność i inicjatywa w powierzonym obszarze,
- Dociekliwość w rozwiązywaniu problemów i zapobieganiu awariom.
Mile widziane (kompetencje dodatkowe)
Udział w projektach Big Data / CI / CD / High Availability,Doświadczenie w obszarze hurtowni danych, systemów e-zdrowia, ochrony zdrowia,Znajomość baz danych PostgreSQL / EDB,Praktyczne wykorzystanie Hadoop / Spark do przetwarzania dużych zbiorów danych,Certyfikaty : Agile PM, Cloudera CCAH lub równoważne.Tech stack : HDFS, Apache Hadoop, Apache Airflow, Apache Ranger, Apache Spark, Ansible, CI / CD, Kubernetes, Docker, Shell scripting, PostgreSQL, EDB.