.
Data Engineer
  • Warsaw
Data Engineer
Warszawa, Warsaw, Masovian Voivodeship, Polska
GOLDENORE ITC sp. z o.o.
11. 1. 2026
Informacje o stanowisku

technologies-expected :


  • PySpark
  • Python
  • Spark
  • SQL
  • Microsoft Azure
  • AWS
  • GitLab
  • GitHub
  • Azure DevOps

technologies-optional :


  • MLflow
  • Airflow
  • Terraform

about-project :


  • Dołącz do nas i weź udział w rozwoju nowoczesnej platformy danych opartej o architekturę Data Lakehouse. Szukamy doświadczonego Data Engineera / Analytics Engineera, który nie tylko świetnie czuje się w Databricks, ale również lubi pracę blisko biznesu – tłumaczenie potrzeb analitycznych na rozwiązania techniczne będzie kluczowym elementem tej roli.
  • To stanowisko dla osoby, która chce mieć realny wpływ na to, jak dane są modelowane, przetwarzane i wykorzystywane przez organizację.
  • Pracujemy zdalnie, mile widziane sporadyczne wizyty w Warszawie.

responsibilities :


  • projektowanie i rozwój rozwiązań w architekturze Data Lakehouse (Databricks),
  • tworzenie, optymalizacja i utrzymanie jobów danych w PySpark / Spark SQL,
  • integracja danych z wielu źródeł (API, batch, streaming),
  • modelowanie danych (modele konceptualne, logiczne i fizyczne) oraz ich implementacja w Databricks,
  • ścisła współpraca z biznesem i analitykami w celu zrozumienia potrzeb raportowych i analitycznych,
  • udział w ustalaniu standardów jakości danych, schematów i ich ewolucji,
  • wdrażanie i rozwój procesów ETL / ELT w dużej skali,
  • praca z Delta Lake, Unity Catalog, Delta Live Tables,
  • rozwój i utrzymanie procesów CI/CD dla rozwiązań danych,
  • dbanie o wydajność, skalowalność i bezpieczeństwo przetwarzania danych w chmurze.

requirements-expected :


  • doświadczenie w pracy z Data Lakehouse architecture,
  • bardzo dobra znajomość Databricks, w tym:
  • Delta Lake,
  • Unity Catalog,
  • Jobs, Workflows, Clusters, Notebooks,
  • Asset Bundles, Repos,
  • zaawansowana znajomość PySpark / Python Spark (tworzenie i optymalizacja jobów),
  • bardzo dobra znajomość SQL, w tym optymalizacja zapytań w Databricks,
  • doświadczenie z Delta Live Tables,
  • praktyka w integracji danych z różnych źródeł (API, streaming, batch),
  • doświadczenie w pracy w chmurze (Azure lub AWS),
  • bardzo dobra znajomość koncepcji ETL / ELT oraz Big Data,
  • praktyczna znajomość CI/CD (GitLab CI, GitHub Actions, Azure DevOps),
  • doświadczenie w pracy z Unity Catalog, Delta Tables i zarządzaniu schematami danych,
  • umiejętność odwzorowywania modeli danych (conceptual / logical / physical),
  • znajomość najlepszych praktyk schema management, schema evolution i versioning.

benefits :


  • dofinansowanie zajęć sportowych
  • prywatna opieka medyczna
  • dofinansowanie nauki języków
  • możliwość pracy zdalnej
  • elastyczny czas pracy
  • spotkania integracyjne
  • firmowa biblioteka
  • brak dress code’u
  • kawa / herbata
  • napoje
  • parking dla pracowników
  • strefa relaksu

  • Praca Warszawa
  • Warszawa - Oferty pracy w okolicznych lokalizacjach


    99 766
    16 673