Dołącz do zespołu odpowiedzialnego za wdrożenie produktów danych w ramach strategicznego programu transformacji danych. Poszukujemy konsultanta z doświadczeniem w projektowaniu i rozwijaniu procesów danych w środowiskach PySpark, Snowflake, Palantir Foundry oraz Azure.
responsibilities :
? Obowiązki funkcjonalne:
Zbieranie i dokumentowanie wymagań biznesowych (warsztaty, wywiady ze stakeholderami)
Tworzenie oraz doprecyzowanie User Stories w Azure DevOps
Ścisła współpraca z zespołem Use Case Delivery, Product Ownerem i Program Leadem
Definiowanie wymagań transformacji danych zgodnie ze strategią programu
Weryfikacja jakości i kompletności istniejących pipeline’ów i produktów danych
Analiza i rekomendacje usprawnień w istniejących procesach przetwarzania danych
? Obowiązki w obszarze architektury danych:
Projektowanie i rozwój organizacyjnej architektury danych
Nadzór nad modelami logicznymi i fizycznymi danych
Tworzenie frameworków zwiększających reużywalność i skalowalność rozwiązań
Monitorowanie jakości danych w kontekście własności i zgodności
Wdrażanie architektury we współpracy z zespołami Data Engineering
Walidacja danych w systemach Snowflake oraz Palantir Foundry
Współpraca z SDAO D&A Architectem w zakresie spójności i zgodności architektury
requirements-expected :
Minimum 3 lata doświadczenia z PySpark / Apache Spark
Doświadczenie komercyjne z Snowflake (np. modelowanie, walidacja, optymalizacja zapytań)