Czym będziesz się zajmować?
Szukamy osoby z doświadczeniem technicznym i biznesowym, która dobrze odnajdzie się w bezpośrednim kontakcie z klientem. Kluczowa jest samodzielność, inicjatywa i gotowość do zaangażowania w działania zarówno projektowe, jak i wewnętrzne / organizacyjne.
- Lokalizacja : Warszawa lub zdalnie (na początku współpracy wymagane 2 dni onboardingu w biurze, w późniejszym etapie oczekujemy wizyt w biurze raz na miesiąc / dwa miesiące)
Twój zakres obowiązków :
Projektowanie rozwiązań opartych o usługi chmurowe (AWS) z uwzględnieniem wymagań klienta i najlepszych praktyk architektonicznychWspółtworzenie i rozwój nowoczesnych procesów przetwarzania danych (ETL / ELT) z wykorzystaniem Apache Spark (głównie PySpark)Udział w spotkaniach z klientem – prezentowanie rozwiązań, zbieranie wymagań, doradztwo techniczneWspieranie zespołów developerskich w implementacji rozwiązań (code review, konsultacje, rozwiązywanie problemów)Tworzenie i utrzymywanie dokumentacji architektonicznejWdrażanie rozwiązań CI / CD oraz zarządzanie infrastrukturą jako kodem (IaC)Zapewnienie jakości i spójności danych poprzez dobór odpowiednich narzędzi i mechanizmów kontrolnychInicjowanie i udział w działaniach usprawniających procesy wewnętrzne oraz dzielenie się wiedzą w zespoleKogo poszukujemy?
Nasze wymagania :
AWS S3 – znajomość różnych klas przechowywania, versioning, struktura bucketów i prefixówApache Spark (w szczególności PySpark), np. w usługach : Glue, EMR, Databricks, SynapseGit – zarządzanie branchami, rozwiązywanie konfliktów, code reviewFormat Parquet – wiedza o strukturze kolumnowej, ewolucji schematu, partycjonowaniu danychPython – doświadczenie programistyczneSQL – zaawansowane zapytania (CTE, funkcje okienkowe, procedury składowane)Hive Metastore (np. Glue Catalog, Databricks, Nifi, Presto itd.)AirflowMile widziane :
Infrastructure-as-Code (IaC) – np. CloudFormation, Terraform, Ansible, ARM, ChefCI / CD – np. CodePipeline, GitHub Actions, GitLab, Jenkins, TeamCityAWS Glue, AWS Lambda (lub ich odpowiedniki na Azure / GCP)AWS Redshift – w tym Redshift Spectrum, procedury, materializowane widoki, tymczasowe tabeleAWS Step FunctionsFormaty plików typu Delta Lake, Apache Iceberg, HudiHDFSScalaDoświadczenie z koncepcjami : Data Lakehouse, Data Quality, Data Lineage, Data GovernancePraca z danymi strumieniowymi / w czasie rzeczywistymZnajomość modelowania danych : Star Schema, Kimball, Data Vault, Common Data ModelObszary : Master Data ManagementCzego wymagamy?
Znajomości :
AWS S3SparkPySparkDatabricksPythonMile widziane :
TerraformGitHubJęzyki :
PolskiAngielskiJakie warunki i benefity otrzymasz?
31900-35300 PLN miesięcznieB2B - Elastyczne godziny pracy (100%)Praca zdalna : Możliwa w całościPakiet medyczny, Ubezpieczenie, Pakiet sportowyKim jesteśmy?
Crestt powstał w odpowiedzi na rosnące zapotrzebowanie ze strony biznesu na zastosowanie nowoczesnych technologii w codziennych działaniach. Naszym celem jest dostarczenie rozwiązań IT opartych o najnowsze rozwiązania technologiczne o niepodważalnej wartości biznesowej. We współpracy z naszymi Partnerami, stworzyliśmy najwyższej klasy rozwiązania IT. Nasze produkty optymalizują procesy biznesowe w największych polskich firmach, a jednoczesnie są dopasowane do indywidualnych potrzeb każdej z nich. Jesteśmy stali w jakości, a elastyczni w podejściu.