.
Senior Data Engineer (Databricks, Python)
  • Warsaw
Senior Data Engineer (Databricks, Python)
Warszawa, Warsaw, Masovian Voivodeship, Polska
CRESTT sp. z o.o.
22. 9. 2025
Informacje o stanowisku

technologies-expected :


  • Databricks
  • PySpark
  • SQL
  • Git
  • Airflow
  • dbt
  • Kafka
  • Flink
  • Fabric Data Factory
  • Python
  • Microsoft Azure

about-project :


  • Dołącz do zespołu Specjalistów, który tworzy rozwiązania w obszarze Data Lakehouse, Business Intelligence i Advanced Analytics w środowiskach chmurowych. Rekrutujemy do zespołu – nie pod konkretny projekt – dzięki czemu będziesz mieć możliwość sprawdzenia się w różnych inicjatywach, z wykorzystaniem najnowszych technologii i podejść (m.in. streaming, AI).
  • Zatrudnienie bezpośrednie w dynamicznie rozwijającej się firmie technologicznej, tworzącej innowacyjne rozwiązania w zakresie danych i analityki.
  • Możliwość współpracy w ramach UoP lub B2B
  • Lokalizacja: praca głównie zdalna (1x w miesiącu spotkanie w biurze w Warszawie)

responsibilities :


  • Projektowanie i rozwój nowoczesnych rozwiązań danych – zarówno nowych platform, jak i usprawnień istniejących architektur.
  • Tworzenie i optymalizacja procesów ETL/ELT do przetwarzania dużych zbiorów danych (batch i streaming).
  • Wdrażanie najlepszych praktyk inżynierii danych: standardy kodowania, testowania i dokumentacji.
  • Zapewnienie jakości rozwiązań poprzez code review i rozwój standardów inżynieryjnych.
  • Ścisła współpraca z biznesem i zespołami projektowymi – rozumienie kontekstu biznesowego i proponowanie najbardziej wartościowych rozwiązań.
  • Mentoring techniczny dla zespołu i dzielenie się wiedzą.

requirements-expected :


  • Min. 5 lat doświadczenia w budowie rozwiązań typu BI, Data Warehouse, Data Lake / Data Lakehouse, Big Data.
  • Szerokie doświadczenie w pracy z Databricks – obejmujące różne obszary tej platformy (np. inżynierię danych, streaming, architekturę, integrację) – a nie tylko wąską specjalizację.
  • Bardzo dobra znajomość PySpark oraz programowania w Pythonie.
  • Biegłość w SQL.
  • Doświadczenie z różnymi systemami baz danych (SQL i NoSQL, cloud i on-prem).
  • Doświadczenie w pracy z chmurą (Azure i/lub AWS).
  • Swobodne posługiwanie się repozytoriami kodu (Git).
  • Wiedza z zakresu data governance, jakości danych, architektur danych (Data Mesh, Data Vault, Medallion, Lambda/Kappa).
  • Doświadczenie z narzędziami typu Airflow, dbt, Kafka, Flink czy Fabric Data Factory.
  • Umiejętność krytycznego myślenia o wymaganiach i zadaniach – nie tylko "co" zrobić, ale także "po co".
  • Język angielski min. B2 (mile widziany C1+).

offered :


  • Możliwość pracy z najnowszymi technologiami.
  • Projekty w zróżnicowanych obszarach – gwarancja rozwoju i braku rutyny.
  • Zespół specjalistów, który wspiera się wiedzą i doświadczeniem.

  • Praca Warszawa
  • Warszawa - Oferty pracy w okolicznych lokalizacjach


    109 244
    18 095