.
Data Engineer Middle @ Scalo
  • Warsaw
Data Engineer Middle @ Scalo
Warszawa, Warsaw, Masovian Voivodeship, Polska
Scalo
8. 3. 2026
Informacje o stanowisku

Cześć! 

U nas znajdziesz to, czego szukasz - przekonaj się! 

W Scalo czeka na Ciebie 

  • praca w modelu hybrydowym: 1 dzień w tygodniu w biurze w Warszawie, 
  •  stawka do 135 PLN/h w oparciu o współpracę B2B.

Co dla Ciebie mamy?

  • Stabilna współpraca
    Wyzwania technologiczne i praca z nowoczesnymi rozwiązaniami. Internal Mobility - nie musisz zmieniać firmy, żeby zmienić projekt
  • Ambasadorzy SCALO
    Rozwijaj kompetencje techniczne i presalesowe, wpływaj na kierunek rozwoju organizacji i wspieraj innych
  • Budowanie marki osobistej
    Twórz wartościowe treści, dziel się wiedzą i doświadczeniem, występuj jako ekspert na wydarzeniach (np. ProMeet) - rozwijaj swoją markę w naturalny sposób
  • Benefit box
    Pełna opieka medyczna, karta MultiSport i szeroka oferta Motivizera - wybieraj benefity, które dbają o Twoje zdrowie, energię i codzienny komfort
  • Program poleceń
    Poleć znajomego z IT, a resztą zajmiemy się my – on dostaje nowy projekt, Ty bonus. Win–win w najczystszej postaci
  • Integracje i wydarzenia firmowe
    Wspólne wyjścia, firmowe eventy i okazje do poznania się poza projektami – bo dobre relacje tworzą najlepsze zespoły

Brzmi interesująco? Aplikuj – czekamy na Twoje CV!


Ta oferta jest dla Ciebie, jeśli:

  • masz co najmniej 4 lata doświadczenia jako Data Engineer GCP w obszarze procesów integracji danych,
  • znasz dobrze narzędzia ETL na GCP (Apache AirFlow, DataFlow, DataProc),
  • biegle posługujesz się bazami danych GCP (BigQuery, BigTable, Scylla Cloud) i potrafisz je projektować oraz optymalizować,
  • potrafisz pracować z kolejkami danych: Kafka, GCP Pub/Sub,
  • masz co najmniej 3 lata doświadczenia jako Developer ETL w środowiskach on‑prem,
  • biegle korzystasz z narzędzi ETL on‑prem: Informatica Power Center i NIFI,
  • masz ekspercką znajomość baz Oracle, PostgreSQL oraz ScyllaDB,
  • bardzo dobrze znasz narzędzie harmonogramujące Automate Now,
  • potrafisz wystawiać usługi REST API,
  • masz co najmniej 4 lata doświadczenia jako programista Python (data integration & analysis) oraz PySpark,
  • dobrze znasz język Rust w kontekście tworzenia narzędzi do wydajnego ładowania danych,
  • potrafisz przejąć odpowiedzialność za obszary wymagające wysokiej dostępności i wydajności,
  • masz podstawową wiedzę w zakresie programowania mikroserwisów w Javie,
  • mile widziana jest znajomość Groovy,
  • dobrze czujesz się w systemach Linux na poziomie zaawansowanego użytkownika,
  • masz doświadczenie w pracy z dużymi wolumenami danych (~100 TB),
  • posiadasz rozwinięte umiejętności analityczne i szybko przyswajasz wiedzę,
  • działasz samodzielnie, kreatywnie i terminowo,
  • mile widziana jest znajomość GIT, Grafany i Apache JMeter.

Cześć! 

U nas znajdziesz to, czego szukasz - przekonaj się! 

W Scalo czeka na Ciebie 

  • praca w modelu hybrydowym: 1 dzień w tygodniu w biurze w Warszawie, 
  •  stawka do 135 PLN/h w oparciu o współpracę B2B.

Co dla Ciebie mamy?

  • Stabilna współpraca
    Wyzwania technologiczne i praca z nowoczesnymi rozwiązaniami. Internal Mobility - nie musisz zmieniać firmy, żeby zmienić projekt
  • Ambasadorzy SCALO
    Rozwijaj kompetencje techniczne i presalesowe, wpływaj na kierunek rozwoju organizacji i wspieraj innych
  • Budowanie marki osobistej
    Twórz wartościowe treści, dziel się wiedzą i doświadczeniem, występuj jako ekspert na wydarzeniach (np. ProMeet) - rozwijaj swoją markę w naturalny sposób
  • Benefit box
    Pełna opieka medyczna, karta MultiSport i szeroka oferta Motivizera - wybieraj benefity, które dbają o Twoje zdrowie, energię i codzienny komfort
  • Program poleceń
    Poleć znajomego z IT, a resztą zajmiemy się my – on dostaje nowy projekt, Ty bonus. Win–win w najczystszej postaci
  • Integracje i wydarzenia firmowe
    Wspólne wyjścia, firmowe eventy i okazje do poznania się poza projektami – bo dobre relacje tworzą najlepsze zespoły

Brzmi interesująco? Aplikuj – czekamy na Twoje CV!

,[udział w projekcie z obszaru integracji oraz przetwarzania danych w środowiskach chmurowych i on‑prem, , realizacja zadań związanych z budową i rozwojem procesów integracyjnych w GCP oraz on‑prem, , praca z narzędziami ETL w środowisku GCP: Apache AirFlow, DataFlow, DataProc, , wykorzystanie baz danych GCP: BigQuery, BigTable oraz Scylla Cloud, , praca z kolejkami danych: Kafka, GCP Pub/Sub, , projektowanie, budowa i tuning baz danych w środowiskach on‑prem (Oracle, PostgreSQL, ScyllaDB), , korzystanie z narzędzi ETL na on‑prem na poziomie zaawansowanym: Informatica Power Center, NIFI, , praca z narzędziem harmonogramującym Automate Now (Infinity Data), , tworzenie i wystawianie usług REST API, , rozwój narzędzi i frameworków w Pythonie oraz PySpark, , tworzenie narzędzi wspomagających wydajne ładowanie danych w języku Rust, , odpowiedzialność za obszar wystawiania danych pod usługi działające w wysokim reżimie wydajnościowym (24h), , praca w środowisku dużych wolumenów danych (~100 TB), Requirements: GCP, ETL, Apache Airflow, BigQuery, Cloud, Kafka, PUB, Informatica, Oracle, PostgreSQL, REST API, Python, PySpark, Rust, Java, Groovy, Git, Grafana, JMeter Additionally: English lessons, Benefit platform, Private healthcare, International projects, Platforma edukacyjna.

  • Praca Warszawa
  • Warszawa - Oferty pracy w okolicznych lokalizacjach


    116 477
    19 179