.
Senior Data Engineer with Databricks
  • Warsaw
Senior Data Engineer with Databricks
Warszawa, Warsaw, Masovian Voivodeship, Polska
CRESTT sp. z o.o.
27. 3. 2025
Informacje o stanowisku

technologies-expected :


  • SQL
  • Python
  • Databricks
  • Apache Airflow
  • dbt
  • Apache Kafka
  • Flink
  • Azure Data Factory
  • Bitbucket
  • GitHub
  • GitLab
  • Hadoop/CDP
  • Cloud

technologies-optional :


  • Microsoft Azure

about-project :


  • Cześć! Poszukujemy osoby na stanowisko Senior Data Engineer, która dołączy do zespołu naszego Klienta zajmującego się projektowaniem i rozwijaniem nowoczesnych rozwiązań w obszarze Data Lakehouse, Business Intelligence oraz zaawansowanej analityki w chmurze. Współpracując w międzynarodowym środowisku, będziesz miał(a) okazję pracować z najnowszymi technologiami w tej dziedzinie.
  • Lokalizacja: praca głównie zdalna (1x w miesiącu spotkanie w biurze w Warszawie)
  • Widełki:
  • B2B 160-200 pln netto+vat/h
  • UoP 26-30 tys. brutto/mies.

responsibilities :


  • Projektowanie i wdrażanie nowych rozwiązań oraz wprowadzanie usprawnień w istniejących platformach danych
  • Udział w rozwoju platform danych i procesów ETL/ELT, optymalizacja przetwarzania dużych zbiorów danych zgodnie z najlepszymi praktykami inżynierii danych
  • Standaryzacja i usprawnianie procesów technicznych – implementacja standardów kodowania, testowania i zarządzania dokumentacją
  • Dbanie o jakość kodu i zgodność z przyjętymi standardami – przeprowadzanie regularnych code review
  • Aktywna współpraca z innymi ekspertami technologicznymi, w celu doskonalenia procesów oraz identyfikacji nowych wyzwań technologicznych
  • Mentoring i wsparcie zespołu w zakresie projektowania rozwiązań, optymalizacji procesów i wdrażania najlepszych praktyk

requirements-expected :


  • Biegłość w SQL oraz Pythonie (min. 5 lat doświadczenia)
  • Co najmniej 2-letnie doświadczenie w pracy z Databricks
  • Doświadczenie w pracy w środowisku chmurowym (preferowany Azure)
  • Minimum 5-letnie doświadczenie w projektowaniu oraz implementacji rozwiązań klasy BI, ETL/ELT, Data Warehouse, Data Lake, Big Data oraz OLAP
  • Praktyczna znajomość zarówno relacyjnych, jak i nierelacyjnych
  • Doświadczenie z narzędziami typu Apache Airflow, dbt, Apache Kafka, Flink, Azure Data Factory, Hadoop/CDP
  • Znajomość zagadnień związanych z zarządzaniem danymi, jakością danych oraz przetwarzaniem wsadowym i strumieniowym
  • Umiejętność stosowania wzorców architektonicznych w obszarze danych (Data Mesh, Data Vault, Modelowanie wymiarowe, Medallion Architecture, Lambda/Kappa Architectures)
  • Praktyczna znajomość systemów kontroli wersji (Bitbucket, GitHub, GitLab)
  • Wysoko rozwinięte umiejętności komunikacyjne, otwartość na bezpośredni kontakt z Klientem końcowym

offered :


  • Udział w międzynarodowych projektach opartych na najnowocześniejszych technologiach chmurowych
  • Pokrycie kosztów certyfikacji (Microsoft, AWS, Databricks)
  • 60 płatnych godzin rocznie na naukę i rozwój
  • Możliwość wyboru między pracą zdalną a spotkaniami w biurze
  • Indywidualnie dopasowane benefity: prywatna opieka medyczna, dofinansowanie karty sportowej, kursy językowe, premie roczne i medialne oraz bonus za polecenie nowego pracownika (do 15 000 PLN)

benefits :


  • dofinansowanie zajęć sportowych
  • prywatna opieka medyczna
  • ubezpieczenie na życie
  • możliwość pracy zdalnej
  • elastyczny czas pracy
  • spotkania integracyjne

  • Praca Warszawa
  • Warszawa - Oferty pracy w okolicznych lokalizacjach


    72 832
    6 921