.
Big Data Engineer
  • Warsaw
Big Data Engineer
Warszawa, Warsaw, Masovian Voivodeship, Polska
GOLDENORE ITC sp. z o.o.
2. 12. 2025
Informacje o stanowisku

technologies-expected :


  • Spark
  • Python
  • Scala
  • Hadoop
  • SQL
  • Hive
  • Kudu
  • HBase
  • Iceberg
  • Maven

technologies-optional :


  • Jira
  • Confluence
  • Kubeflow
  • Kafka
  • Apache Nifi

about-project :


  • Dołączysz do zespołu, który pracuje nad najbardziej zaawansowanymi inicjatywami Big Data w bankowości. Jesteśmy 12-osobowym zespołem Scrumowym, realizującym zarówno projekty biznesowe, jak i R&D. Odpowiadamy m.in. za:
  • budowę i rozwój rozwiązań streamingowych, które znacząco skróciły czas przetwarzania danych pod raportowanie,
  • ścisłą współpracę z zespołem Data Science – wdrażanie i rozwijanie modeli ML/AI w środowiskach produkcyjnych,
  • wsparcie architektoniczne i wdrożeniowe dla innych zespołów projektowych,
  • rozwój platformy Big Data na Cloudera CDP / Hadoop,
  • przygotowania do migracji do chmury (GCP, Azure).
  • Pracujemy z dużą skalą danych, nowoczesnym ekosystemem narzędzi i wieloma projektami równolegle. Jeśli Big Data, ML, streaming i architektura danych to obszary, które Cię napędzają — będzie to dla Ciebie świetne miejsce.
  • Spotykamy się z zespołem 2x w miesiącu w Warszawie.

responsibilities :


  • Rozwój i utrzymanie procesów danych w Spark (Python lub Scala)
  • Tworzenie i optymalizacja pipeline’ów Big Data (batch + streaming)
  • Praca na platformie Hadoop/Cloudera (CDP)
  • Integracja danych z wielu źródeł (wewnętrznych i zewnętrznych)
  • Implementacja standardów inżynierii danych: modelowanie, testowanie, automatyzacja, dokumentacja
  • Wsparcie architektów i zespołów projektowych w tworzeniu i wdrażaniu rozwiązań danych
  • Praca z formatami danych: JSON, PARQUET, ORC, AVRO
  • Wsparcie w rozwoju środowiska ML/AI (np. Kubeflow, Spark ML, pipelines)
  • Przygotowanie środowiska pod przyszłe prace w chmurze (GCP/Azure)

requirements-expected :


  • Min. 4 lata doświadczenia w pracy ze Spark (Python lub Scala)
  • Dobra znajomość koncepcji Big Data, Data Warehouse, Data Governance
  • Doświadczenie z platformą Hadoop Cloudera lub Hortonworks
  • Znajomość dobrych praktyk inżynierii danych przy dużej skali
  • Bardzo dobra znajomość SQL
  • Doświadczenie w integracji danych z wielu źródeł
  • Znajomość formatów danych: JSON, PARQUET, ORC, AVRO
  • Rozumienie typów baz danych i scenariuszy użycia (Hive, Kudu, HBase, Iceberg itp.)
  • Znajomość narzędzi do budowy projektów (np. Maven)

benefits :


  • dofinansowanie zajęć sportowych
  • prywatna opieka medyczna
  • dofinansowanie nauki języków
  • możliwość pracy zdalnej
  • elastyczny czas pracy
  • spotkania integracyjne
  • firmowa biblioteka
  • brak dress code’u
  • kawa / herbata
  • napoje
  • parking dla pracowników
  • strefa relaksu

  • Praca Warszawa
  • Warszawa - Oferty pracy w okolicznych lokalizacjach


    111 685
    14 139