Dołącz do zespołu ekspertów, którzy projektują nowoczesne rozwiązania w obszarze Data Lakehouse, Business Intelligence i Advanced Analytics w chmurze. Nie rekrutujemy Cię do jednego projektu – dajemy Ci szansę pracy przy wielu inicjatywach, korzystając z najnowszych technologii i podejść, takich jak streaming czy AI.
responsibilities :
Projektowanie i rozwój nowoczesnych platform danych oraz optymalizacja istniejących architektur.
Budowa i usprawnianie procesów ETL/ELT (batch i streaming) do dużych zbiorów danych.
Wdrażanie najlepszych praktyk inżynierii danych – kodowanie, testowanie, dokumentacja, code review.
Ścisła współpraca z zespołami biznesowymi w celu tworzenia rozwiązań o największej wartości.
Mentoring i dzielenie się wiedzą w zespole.
requirements-expected :
Min. 5 lat doświadczenia w BI, Data Warehouse, Data Lake/Lakehouse i Big Data.
Praktyka z Databricks w zakresie inżynierii danych, architektury, integracji i streamingu.
Bardzo dobra znajomość PySpark, Python i SQL; doświadczenie z różnymi bazami danych (SQL/NoSQL, cloud/on-prem).
Doświadczenie z chmurą (Azure i/lub AWS) i repozytoriami kodu (Git).
Znajomość zasad data governance, jakości danych i nowoczesnych architektur (Data Mesh, Data Vault, Medallion, Lambda/Kappa).
Praca z narzędziami typu Airflow, dbt, Kafka, Flink lub Fabric Data Factory.
Angielski min. B2 (C1+ mile widziany).
offered :
Stabilne zatrudnienie bezpośrednio w dynamicznie rozwijającej się firmie technologicznej.
Możliwość współpracy w modelu UoP lub B2B.
Praca głównie zdalna, z jednym spotkaniem w miesiącu w biurze w Warszawie.
Projekty o różnorodnej skali i tematyce, gwarantujące rozwój i brak rutyny.
Dostęp do nowoczesnych narzędzi chmurowych i technologii danych.
Pokrycie kosztów certyfikacji (Microsoft, AWS, Databricks) i 60 godzin rocznie na rozwój osobisty.
Indywidualnie dopasowane benefity: prywatna opieka medyczna, karta sportowa, kursy językowe, premie i bonusy za rekomendacje.