Alterdata.io, zespół danych jako firma usługowa, zatrudni Data Engineera do pracy zdalnej. Będziesz częścią zespołu profesjonalnych inżynierów, analityków danych i developerów, którzy szukają rozwiązań szytych na miarę.
Co możemy Ci zaoferować :
- Swobodne i przyjazne środowisko pracy.
- Pakiet świadczeń dodatkowych (kafeteria, opieka medyczna, multisport).
- Praca w pełni zdalna, ale częste wyjazdy integracyjne.
- Możliwość rozwoju i zdobycia certyfikacji branżowych.
- Pełne wsparcie zespołu i regularne szkolenia wewnetrzne.
- Możliwość szybkiego rozwoju.
- Różne projekty (w tym międzynarodowe).
Obowiązkowe
Dobra znajomość Python.Znajomość SQL – tworzenie zapytań, praca z bazami danych (np. PostgreSQL, BigQuery).Rozumienie zagadnień zarządzenia i orkiestracji procesów ETL / ELT.Znajomość zagadnień związanych z integracją danych z wielu źródeł (np. stream, relacyjne bazy danych, pliki, API, etc.)Rozumienie zagadnień : Data Warehousing, Data Lakes, Data Lakehouse.Znajomość systemu kontroli wersji Git.Dobra organizacja pracy, umiejętność pracy w zespole oraz efektywnej komunikacji.Znajomość języka angielskiego na poziomie minimum B2Mile widziane
Doświadczenie komercyjne na stanowisku Data Engineer.Doświadczenie w pracy z platformami chmurowymi : Google Cloud Platform lub Azure.Doświadczenie z Terraform lub innymi narzędziami Infrastructure as Code.Znajomość narzędzi do przetwarzania danych w czasie rzeczywistym, takich jak Apache Kafka, Apache Spark, Google Dataflow.Doświadczenie w pracy z narzędziami typu DBT, Dataform.Znajomość zagadnień integracji, przechowywania, przetwarzania i wyszukiwania danych w środowiskach, np. Spark, Snowpark, AWS Data Migration Services, Azure DataFactory, Google DataFlow.Doświadczenie w pracy z platformami BigQuery, Snowflake.Umiejętność praktycznego wykorzystania narzędzi AI (Github Copilot, Cursor IDE) w celu podnoszenia jakości wykonywanej pracy.Alterdata.io, zespół danych jako firma usługowa, zatrudni Data Engineera do pracy zdalnej. Będziesz częścią zespołu profesjonalnych inżynierów, analityków danych i developerów, którzy szukają rozwiązań szytych na miarę.
Co możemy Ci zaoferować :
Swobodne i przyjazne środowisko pracy.Pakiet świadczeń dodatkowych (kafeteria, opieka medyczna, multisport).Praca w pełni zdalna, ale częste wyjazdy integracyjne.Możliwość rozwoju i zdobycia certyfikacji branżowych.Pełne wsparcie zespołu i regularne szkolenia wewnetrzne.Możliwość szybkiego rozwoju.Różne projekty (w tym międzynarodowe).Inżynieria danych w oparciu o chmurowe platformy danych jak GCP, Azure, Snowflake, Projektowanie i implementacja skalowalnych procesów ETL / ELT z wykorzystaniem usług chmurowych (GCP, Azure)., Wdrażanie i utrzymanie pipeline’ów danych w środowiskach takich jak Google Cloud Platform (BigQuery, Pub / Sub, Composer) oraz Microsoft Azure (Data Factory, Functions)., Tworzenie skryptów w Python / SQL., Tworzenie i rozwijanie mechanizmów do integracji danych z różnorodnych źródeł., Współpraca z innymi inżynierami danych, analitykami, architektami chmurowymi oraz interesariuszami biznesowymi w ramach realizowanych projektów., Współtworzenie dokumentacji technicznej i udział w spotkaniach projektowych (stand-upy, retrospektywy, planowanie sprintów).] Requirements : Python, SQL, ETL, Git, API, GCP, CI / CD, Terraform, DBT, Snowflake, BigQuery, Azure, Airflow, Spark Tools : Github, Monday.com, GitHub, GitLab, GIT, Agile, Kanban. Additionally : Training budget, International projects, Flat structure, Benefit platform, Small teams.