Nasz klient to globalna firma technologiczna i usługowa, specjalizująca się w dostarczaniu nowoczesnych rozwiązań z zakresu inżynierii oprogramowania oraz transformacji cyfrowej. Dzięki ponad 25-letniemu doświadczeniu wspiera przedsiębiorstwa w różnych branżach, takich jak: technologie, handel detaliczny, zdrowie, finanse, turystyka czy media.
O projekcie
Zakres prac obejmuje budowę i rozwój potoków danych, optymalizację procesów ETL/ELT, integrację systemów wewnętrznych i zewnętrznych (w tym API oraz usług chmurowych), a także zapewnienie wysokich standardów zarządzania danymi, bezpieczeństwa i zgodności. Istotnym elementem projektu jest testowanie i wdrażanie nowoczesnych wzorców architektonicznych oraz funkcjonalności platformy Databricks.
Projekt realizowany jest w międzynarodowym środowisku, we współpracy z zespołami technicznymi i interesariuszami biznesowymi, z dużym naciskiem na eksperymentowanie, szybkie Proof-of-Concept oraz ciągłą optymalizację rozwiązań.
Tryb pracy
Praca hybrydowa – 3 dni w tygodniu z biura w Warszawie
responsibilities :
Projektowanie i wdrażanie architektury danych w oparciu o Databricks
Tworzenie i rozwój skalowalnych, wydajnych potoków danych
Optymalizacja modeli danych oraz procesów ETL/ELT
Integracja systemów zewnętrznych, API i usług chmurowych
Monitorowanie i optymalizacja wydajności, kosztów oraz dostępności platformy danych
Prowadzenie Proof-of-Concept (POC) dla nowych architektur, narzędzi i funkcji
Testowanie i ocena nowych funkcjonalności Databricks (m.in. Unity Catalog, Photon, Delta Sharing, serverless compute)
Definiowanie i egzekwowanie standardów data governance, jakości danych i bezpieczeństwa
Współpraca z zespołami danych i biznesem w celu wsparcia analiz i decyzji opartych na danych
requirements-expected :
Minimum 5 lat doświadczenia w architekturze danych lub podobnej roli
5–8 lat doświadczenia w solution engineeringu, architekturze lub rolach pokrewnych
Bardzo dobra znajomość platformy Databricks i architektur danych w chmurze
Praktyczna znajomość Apache Spark, Python, SQL oraz frameworków przetwarzania danych
Doświadczenie w projektowaniu i optymalizacji procesów ETL/ELT
Doświadczenie w integracji systemów poprzez API oraz usługi chmurowe
Znajomość rozwiązań data warehouse, Delta Lake oraz architektur Lakehouse
Znajomość środowisk chmurowych (Azure i/lub AWS)
Dobra znajomość zasad data governance, bezpieczeństwa i zgodności regulacyjnej
Umiejętność współpracy z zespołami technicznymi i interesariuszami biznesowymi
offered :
Zyskujesz indywidualne wsparcie Service Delivery Managera, który pomoże Ci zaplanować ścieżkę kariery i zadba o Twój komfort i satysfakcję z pracy w projekcie
Szkolenia, certyfikaty i konferencje - dofinansowujemy lub w pełni pokrywamy koszty rozwoju kompetencji technicznych
SmartChange – umożliwiamy zmianę projektu i dobieramy kolejny zgodnie z Twoimi preferencjami
Dbamy o Twój work-life balance, dlatego poza pracą oferujemy wyjścia integracyjne, aktywności sportowe i inspirujące webinary #edge1talks, które rozwijają i łączą ludzi
Aktywność fizyczna – wspieramy sportowe inicjatywy i wynajem sal treningowych
Pakiet zdrowotny – prywatna opieka, karta sportowa, ubezpieczenie i wsparcie psychologiczne (HearMe)
Elastyczne benefity – sam decydujesz, na co przeznaczasz punkty w naszym systemie benefitowym
Bezpłatne lekcje języka angielskiego – dopasowane do Twojego poziomu, idealne do pracy w międzynarodowym środowisku