W ITLT pomagamy naszym zaprzyjaźnionym firmom przekształcać ambitne pomysły w cyfrową rzeczywistość. Z nastawieniem na wyzwania, ciekawość technologii i zwinność - współtworzymy wyjątkowe rozwiązania IT i zapewniamy najlepszych specjalistów - którzy pomagają przyspieszyć cyfrową transformację.
Aktualnie poszukujemy kandydatów na stanowisko :
Informacje organizacyjne :
Dla kogo : Dołączysz do zespołu technologicznego, który odpowiada za rozwój i utrzymanie skalowalnych procesów przetwarzania danych. Pracujesz w środowisku opartym na chmurze (AWS), gdzie dane są kluczowym elementem napędzającym innowacje w produktach i usługach.
Forma współpracy : B2B
Wymiar : Full-time, długofalowa współpraca
Stawka : 110–130 zł / h netto (FV) – zależnie od doświadczenia
Tryb pracy : Zdalnie – 100% remote
Zespół : Będziesz współpracować z inżynierami danych, programistami oraz ekspertami językowymi w środowisku Agile. Decyzyjność, samodzielność i jakość są tutaj kluczowe.
Co będziesz robić?
- Projektować i rozwijać zautomatyzowane procesy przetwarzania danych (ETL / ELT) z wykorzystaniem Pythona i usług AWS (m.in. Glue, Lambda, S3)
- Zbierać i przekształcać dane z różnych źródeł (strukturalnych i niestrukturalnych), tworząc spójne modele danych
- Monitorować, optymalizować i automatyzować przepływy danych z myślą o ich wydajności i kosztach
- Dbać o jakość danych – poprzez testy, walidację i audyty danych
- Projektować struktury danych i wspierać budowę nowoczesnych baz danych oraz warstw raportowych
- Tworzyć dokumentację techniczną i wspierać innych członków zespołu wiedzą techniczną
- Brać udział w przeglądach kodu, dzielić się dobrymi praktykami i dbać o techniczny rozwój zespołu
- Wspierać zespół w obszarze infrastruktury jako kod (IaC) – Terraform, CloudFormation lub CDK
Oczekiwania : Must-have :
Bardzo dobra znajomość Pythona – szczególnie w kontekście przetwarzania danych (Pandas, NumPy itp.)Doświadczenie w pracy z chmurą AWS – zwłaszcza z usługami : S3, Glue, Lambda, RDSDobra znajomość SQL i umiejętność pracy z bazami danychRozumienie architektury i cyklu życia pipeline'ów danychZnajomość systemów kontroli wersji (Git)Samodzielność, analityczne podejście i nastawienie na rozwiązywanie problemówUmiejętność pracy zespołowej i komunikacji w języku angielskim (min. C1)Gotowość do pracy zdalnej z terytorium Polski (wymagana legalna możliwość pracy na terenie RP)Nice-to-have :Znajomość narzędzi do orkiestracji zadań (np. Apache Airflow)
Doświadczenie z Redshift lub innymi hurtowniami danychWiedza z zakresu bezpieczeństwa danych i zgodności z regulacjami (np. GDPR)Znajomość konteneryzacji (Docker, Kubernetes)Doświadczenie z narzędziami typu Infrastructure as Code (Terraform, CDK, CloudFormation)Oferujemy :
Udział w rozwoju nowoczesnych produktów opartych na danych – w środowisku, gdzie jakość i autonomia mają znaczenieStabilny kontrakt i przejrzyste warunki współpracyW pełni zdalną współpracę i elastyczne godziny pracyMożliwość pracy z doświadczonym zespołem, w którym priorytetem są jakość kodu i wymiana wiedzyDostęp do benefitów : prywatna opieka medyczna, karta sportowa, ubezpieczenie grupowe (w modelu dofinansowania)