Czym będziesz się zajmować?
Poszukujemy osoby na stanowisko Senior Data Engineer, która dołączy do zespołu naszego Klienta zajmującego się projektowaniem i rozwijaniem nowoczesnych rozwiązań w obszarze Data Lakehouse, Business Intelligence oraz zaawansowanej analityki w chmurze. Współpracując w międzynarodowym środowisku, będziesz miał(a) okazję pracować z najnowszymi technologiami w tej dziedzinie.
- Lokalizacja : praca głównie zdalna (1x w miesiącu spotkanie w biurze w Warszawie)
- Widełki :
- B2B 160-200 pln netto+vat / h
- UoP 26-30 tys. brutto / mies.
Twój zakres obowiązków
Projektowanie i wdrażanie nowych rozwiązań oraz wprowadzanie usprawnień w istniejących platformach danychUdział w rozwoju platform danych i procesów ETL / ELT, optymalizacja przetwarzania dużych zbiorów danych zgodnie z najlepszymi praktykami inżynierii danychStandaryzacja i usprawnianie procesów technicznych – implementacja standardów kodowania, testowania i zarządzania dokumentacjąDbanie o jakość kodu i zgodność z przyjętymi standardami – przeprowadzanie regularnych code reviewAktywna współpraca z innymi ekspertami technologicznymi, w celu doskonalenia procesów oraz identyfikacji nowych wyzwań technologicznychMentoring i wsparcie zespołu w zakresie projektowania rozwiązań, optymalizacji procesów i wdrażania najlepszych praktykKogo poszukujemy?
Nasze wymagania :
Biegłość w SQL oraz Pythonie (min. 5 lat doświadczenia)Co najmniej 2-letnie doświadczenie w pracy z DatabricksDoświadczenie w pracy w środowisku chmurowym (preferowany Azure)Minimum 5-letnie doświadczenie w projektowaniu oraz implementacji rozwiązań klasy BI, ETL / ELT, Data Warehouse, Data Lake, Big Data oraz OLAPPraktyczna znajomość zarówno relacyjnych, jak i nierelacyjnychDoświadczenie z narzędziami typu Apache Airflow, dbt, Apache Kafka, Flink, Azure Data Factory, Hadoop / CDPZnajomość zagadnień związanych z zarządzaniem danymi, jakością danych oraz przetwarzaniem wsadowym i strumieniowymUmiejętność stosowania wzorców architektonicznych w obszarze danych (Data Mesh, Data Vault, Modelowanie wymiarowe, Medallion Architecture, Lambda / Kappa Architectures)Praktyczna znajomość systemów kontroli wersji (Bitbucket, GitHub, GitLab)Wysoko rozwinięte umiejętności komunikacyjne, otwartość na bezpośredni kontakt z Klientem końcowymMile widziane :
Certyfikaty z Databricks lub Azure będą dodatkowym atutemCzego wymagamy?
Znajomości :
PythonDatabricksAirflowKafkaGitHubGitLabHadoopAzure Data FactoryMile widziane :
AzureJęzyki :
PolskiAngielskiJakie warunki i benefity otrzymasz?
26000-30000 PLN miesięcznieUmowa o pracę - Elastyczne godziny pracy (100%)Praca zdalna : W całościPakiet medyczny, Ubezpieczenie, Pakiet sportowyKim jesteśmy?
Crestt powstał w odpowiedzi na rosnące zapotrzebowanie ze strony biznesu na zastosowanie nowoczesnych technologii w codziennych działaniach. Naszym celem jest dostarczenie rozwiązań IT opartych o najnowsze rozwiązania technologiczne o niepodważalnej wartości biznesowej. We współpracy z naszymi Partnerami, stworzyliśmy najwyższej klasy rozwiązania IT. Nasze produkty optymalizują procesy biznesowe w największych polskich firmach, a jednoczesnie są dopasowane do indywidualnych potrzeb każdej z nich. Jesteśmy stali w jakości, a elastyczni w podejściu.