.
Senior Data Engineer with Databricks @ Crestt
  • Warsaw
Senior Data Engineer with Databricks @ Crestt
Warszawa, Warsaw, Masovian Voivodeship, Polska
Crestt
12. 6. 2025
Informacje o stanowisku

Cześć! Poszukujemy osoby na stanowisko Senior Data Engineer, która dołączy do zespołu naszego Klienta zajmującego się projektowaniem i rozwijaniem nowoczesnych rozwiązań w obszarze Data Lakehouse, Business Intelligence oraz zaawansowanej analityki w chmurze. Współpracując w międzynarodowym środowisku, będziesz miał(a) okazję pracować z najnowszymi technologiami w tej dziedzinie.

Lokalizacja: praca głównie zdalna (1x w miesiącu spotkanie w biurze w Warszawie)

Widełki:

  • B2B: 160-200 pln netto+vat/h
  • UoP 26-30 tys. brutto/mies.


Klient oferuje:

  • Udział w międzynarodowych projektach opartych na najnowocześniejszych technologiach chmurowych
  • Pokrycie kosztów certyfikacji (Microsoft, AWS, Databricks)
  • 60 płatnych godzin rocznie na naukę i rozwój
  • Możliwość wyboru między pracą zdalną a spotkaniami w biurze
  • Indywidualnie dopasowane benefity: prywatna opieka medyczna, dofinansowanie karty sportowej, kursy językowe, premie roczne i medialne oraz bonus za polecenie nowego pracownika (do 15 000 PLN)



  • Biegłość w SQL oraz Pythonie (min. 5 lat doświadczenia)
  • Co najmniej 2-letnie doświadczenie w pracy z Databricks
  • Doświadczenie w pracy w środowisku chmurowym (preferowany Azure)
  • Minimum 5-letnie doświadczenie w projektowaniu oraz implementacji rozwiązań klasy BI, ETL/ELT, Data Warehouse, Data Lake, Big Data oraz OLAP
  • Praktyczna znajomość zarówno relacyjnych (np. SQL Server, PostgreSQL, Redshift, Teradata), jak i nierelacyjnych (np. MongoDB, Cosmos DB, DynamoDB).
  • Doświadczenie z narzędziami typu Apache Airflow, dbt, Apache Kafka, Flink, Azure Data Factory, Hadoop/CDP.
  • Znajomość zagadnień związanych z zarządzaniem danymi, jakością danych oraz przetwarzaniem wsadowym i strumieniowym
  • Umiejętność stosowania wzorców architektonicznych w obszarze danych (Data Mesh, Data Vault, Modelowanie wymiarowe, Medallion Architecture, Lambda/Kappa Architectures)
  • Praktyczna znajomość systemów kontroli wersji (Bitbucket, GitHub, GitLab)
  • Wysoko rozwinięte umiejętności komunikacyjne, otwartość na bezpośredni kontakt z Klientem końcowym
  • Certyfikaty z Databricks lub Azure będą dodatkowym atutem

Cześć! Poszukujemy osoby na stanowisko Senior Data Engineer, która dołączy do zespołu naszego Klienta zajmującego się projektowaniem i rozwijaniem nowoczesnych rozwiązań w obszarze Data Lakehouse, Business Intelligence oraz zaawansowanej analityki w chmurze. Współpracując w międzynarodowym środowisku, będziesz miał(a) okazję pracować z najnowszymi technologiami w tej dziedzinie.

Lokalizacja: praca głównie zdalna (1x w miesiącu spotkanie w biurze w Warszawie)

Widełki:

  • B2B: 160-200 pln netto+vat/h
  • UoP 26-30 tys. brutto/mies.


Klient oferuje:

  • Udział w międzynarodowych projektach opartych na najnowocześniejszych technologiach chmurowych
  • Pokrycie kosztów certyfikacji (Microsoft, AWS, Databricks)
  • 60 płatnych godzin rocznie na naukę i rozwój
  • Możliwość wyboru między pracą zdalną a spotkaniami w biurze
  • Indywidualnie dopasowane benefity: prywatna opieka medyczna, dofinansowanie karty sportowej, kursy językowe, premie roczne i medialne oraz bonus za polecenie nowego pracownika (do 15 000 PLN)


,[Projektowanie i wdrażanie nowych rozwiązań oraz wprowadzanie usprawnień w istniejących platformach danych , Udział w rozwoju platform danych i procesów ETL/ELT, optymalizacja przetwarzania dużych zbiorów danych zgodnie z najlepszymi praktykami inżynierii danych , Standaryzacja i usprawnianie procesów technicznych – implementacja standardów kodowania, testowania i zarządzania dokumentacją , Dbanie o jakość kodu i zgodność z przyjętymi standardami – przeprowadzanie regularnych code review , Aktywna współpraca z innymi ekspertami technologicznymi, w celu doskonalenia procesów oraz identyfikacji nowych wyzwań technologicznych , Mentoring i wsparcie zespołu w zakresie projektowania rozwiązań, optymalizacji procesów i wdrażania najlepszych praktyk  Requirements: SQL, Python, Databricks, Apache Airflow, dbt, Kafka, Flink, Hadoop, Bitbucket, GitHub, GitLab, Databases, Cloud, Azure Data Factory Additionally: Private healthcare, Remote work, Annual bonus, Training budget, International projects.

  • Praca Warszawa
  • Warszawa - Oferty pracy w okolicznych lokalizacjach


    96 760
    9 645