Długofalowa współpraca z międzynarodową, topową firmą consultingową, świadcząca usługi IT dla dużych i średnich firm z różnorodnych sektorów jak automotive, finanse, bankowość czy produkcja.
responsibilities :
Projektowanie, rozwój i utrzymanie skalowalnych rozwiązań analitycznych oraz ETL w oparciu o platformę Databricks (Lakehouse, Delta Lake).
Budowa i optymalizacja pipeline’ów danych z wykorzystaniem PySpark, SQL i Pythona.
Integracja rozwiązań z narzędziami BI (Power BI, Tableau) oraz systemami zewnętrznymi.
Zapewnianie bezpieczeństwa i zgodności danych z wykorzystaniem Unity Catalog.
Automatyzacja wdrożeń (CI/CD) oraz monitorowanie wydajności klastrów.
Współpraca z zespołem projektowym w metodyce Agile i komunikacja z interesariuszami biznesowymi oraz technicznymi.
requirements-expected :
Minimum 3 lata doświadczenia w obszarze Data Engineering/Big Data.
Bardzo dobra znajomość Databricks (Workspace, Jobs API, Lakehouse).
Doświadczenie w pracy z Pythonem (PySpark) oraz SQL.
Praktyczne doświadczenie w projektach opartych o Databricks i Spark.
Doświadczenie w pracy zespołowej w środowisku Agile.
Znajomość języka angielskiego na poziomie B2 lub C1 - umożliwiająca swobodną komunikację w międzynarodowym środowisku.
offered :
Długofalowa współpraca z wynagrodzeniem w przedziale 130-160 PLN netto/godz. + VAT.
Wsparcie przy zakładaniu i prowadzeniu działalności gospodarczej, dla osób bez takiego doświadczenia.
Współpraca w pełni zdalna.
Benefity - prywatna opieka medyczna, karta Multisport.
Nowoczesny sprzęt zapewniany przez firmę, wraz z potrzebnym oprogramowaniem i konfiguracją.