Cześć!
Dołącz do zespołu odpowiedzialnego za wdrożenie produktów danych w ramach strategicznego programu transformacji danych.
Poszukujemy konsultanta z doświadczeniem w projektowaniu i rozwijaniu procesów danych w środowiskach PySpark, Snowflake, Palantir Foundry oraz Azure.
Lokalizacja : 100% zdalnie
Widełki : 170 – 230 pln netto plus VAT / h
Zapraszamy do aplikowania!
Must-have :
- Minimum 3 lata doświadczenia z PySpark / Apache Spark
- Doświadczenie komercyjne z Snowflake (np. modelowanie, walidacja, optymalizacja zapytań)
- Znajomość Palantir Foundry (Code Repository, Workshop, pipelines)
- Praktyka w środowisku Azure i / lub AWS (Blob, S3, ADF, Glue)
- Znajomość SQL i zasad modelowania danych
- Umiejętność współpracy z zespołami biznesowymi i technicznymi
- B. dobra znajomość angielskiego
Mile widziane :
Doświadczenie z Azure DevOps (user stories, repozytoria, pipelines)Znajomość zasad Data Governance i frameworków jakości danychUmiejętność pracy z komponentami UI w Foundry (np. Slate)Cześć!
Dołącz do zespołu odpowiedzialnego za wdrożenie produktów danych w ramach strategicznego programu transformacji danych.
Poszukujemy konsultanta z doświadczeniem w projektowaniu i rozwijaniu procesów danych w środowiskach PySpark, Snowflake, Palantir Foundry oraz Azure.
Lokalizacja : 100% zdalnie
Widełki : 170 – 230 pln netto plus VAT / h
Zapraszamy do aplikowania!
Obowiązki funkcjonalne : ,
Zbieranie i dokumentowanie wymagań biznesowych (warsztaty, wywiady ze stakeholderami),Tworzenie oraz doprecyzowanie User Stories w Azure DevOps,cisła współpraca z zespołem Use Case Delivery, Product Ownerem i Program Leadem,Definiowanie wymagań transformacji danych zgodnie ze strategią programu,Weryfikacja jakości i kompletności istniejących pipeline’ów i produktów danych,Analiza i rekomendacje usprawnień w istniejących procesach przetwarzania danych, Obowiązki w obszarze architektury danych : ,Projektowanie i rozwój organizacyjnej architektury danych,Nadzór nad modelami logicznymi i fizycznymi danych,Tworzenie frameworków zwiększających reużywalność i skalowalność rozwiązań,Monitorowanie jakości danych w kontekście własności i zgodności,Wdrażanie architektury we współpracy z zespołami Data Engineering,Walidacja danych w systemach Snowflake oraz Palantir Foundry,Współpraca z SDAO D&A Architectem w zakresie spójności i zgodności architektury] Requirements : Spark, Snowflake, Palantir, Azure, SQL, Azure DevOps, Data Governance, Slate