Wymagania obligatoryjne :
- Minimum 3 lata doświadczenia jako DevOps Engineer lub Administrator systemów Big Data
- Udział w co najmniej jednym wdrożeniu produkcyjnym projektu IT
- Doświadczenie w projektach z obszaru Big Data lub przetwarzania dużych wolumenów danych
- Doświadczenie z klastrami High Availability
- Znajomość i umiejętność zarządzania HDFS
- Znajomość ekosystemu Apache Hadoop (np. Airflow, Ranger) w zakresie instalacji i konfiguracji
- Znajomość i umiejętność konfiguracji Apache Spark
- Znajomość Ansible
- Znajomość standardów CI / CD
- Znajomość Kubernetes oraz Docker
- Umiejętność pisania skryptów w powłoce (shell scripting)
- Dobra organizacja pracy własnej i zespołu, orientacja na cele
- Umiejętność automatyzacji codziennych zadań
- Komunikatywność, kreatywność, samodzielność, odporność na stres
- Odpowiedzialność i inicjatywa w powierzonym obszarze
- Dociekliwość w rozwiązywaniu problemów i zapobieganiu awariom
Mile widziane (kompetencje dodatkowe) :
Udział w projektach Big Data, CI / CD, High AvailabilityDoświadczenie w obszarze hurtowni danych, systemów e-zdrowia lub ochrony zdrowiaZnajomość baz danych PostgreSQL / EDBPraktyczne wykorzystanie Hadoop i Spark do przetwarzania dużych zbiorów danychCertyfikaty : Agile PM, Cloudera CCAH lub równoważneTech stack :
HDFS, Apache Hadoop, Apache Airflow, Apache Ranger, Apache Spark, Ansible, CI / CD, Kubernetes, Docker, Shell scripting, PostgreSQL, EDB