.
Data Engineer @ ITFS Sp. z o.o.
  • Warsaw
Data Engineer @ ITFS Sp. z o.o.
Warszawa, Warsaw, Masovian Voivodeship, Polska
ITFS Sp. z o.o.
21. 10. 2025
Informacje o stanowisku

  • Miejsce pracy: 100% zdalnie
  • Start: ASAP (preferowany 30 dniowy okres wypowiedzenia)
  • Forma współpracy: B2B z ITFS
  • Stawka: do 160 PLN netto + VAT/h
  • Proces rekrutacyjny: rozmowa telefoniczna z ITFS (ok. 20 min.) →  weryfikacja techniczna z  ITFS → rozmowa techniczna z Klientem → rozmowa z Dyrektorem obszaru (opcjonalnie) → decyzja

Wymagania: 

  • min 5 lat doświadczenia na stanowisku Data Engineer
  • doświadczenie w realizacji projektów budowy hurtowni danych / data lake / data platform klasy enterprise
  • bardzo dobra znajomość Google Cloud Platform w zakresie: BigQuery, Google Cloud Storage, Dataflow (batch & streaming), Composer Airflow, podstawowa wiedza w obszarze GKE
  • bardzo dobra znajomość i codzienne praktyczne doświadczenie z DBT
  • umiejętność projektowania i implementacji data pipeline (ETL/ELT)
  • bardzo dobra praktyczna znajomość Python w kontekście przetwarzania danych
  • doświadczenie z przynajmniej jednym z narzędzi orkiestracji strumieniowej (Kafka / Pub/Sub / Dataflow Streaming)
  • umiejętność pracy w IaC (Terraform – bardzo duże plus)
  • doświadczenie z Docker, Kubernetes
  • doświadczenie w testowaniu jakości danych i monitoringu (SLA, alerty, data quality framework)
  • zaawansowana znajomość j.angielskiego - poziom min C1
  • gotowość do pełnienia sporadycznych dyżurów on-call 

Mile widziane:

  • znajomość dbt cloud
  • Miejsce pracy: 100% zdalnie
  • Start: ASAP (preferowany 30 dniowy okres wypowiedzenia)
  • Forma współpracy: B2B z ITFS
  • Stawka: do 160 PLN netto + VAT/h
  • Proces rekrutacyjny: rozmowa telefoniczna z ITFS (ok. 20 min.) →  weryfikacja techniczna z  ITFS → rozmowa techniczna z Klientem → rozmowa z Dyrektorem obszaru (opcjonalnie) → decyzja
,[codzienna praca z dbt – budowa, utrzymanie i optymalizacja transformacji danych, praca z BigQuery - codzienne zapytania, modelowanie, zarządzanie dużymi zbiorami, Google Cloud Storage – etapowanie, przechowywanie i transfer danych między systemami, orkiestracja, harmonogramy i monitoring w Google Composer / Airflow, główny język do tworzenia pipeline, automatyzacji i usług wspierających w Python, praca z Kafka, Dataflow, Terraform, GKE Requirements: Google cloud platform, BigQuery, Cloud, Storage, Airflow, dbt, ETL, Python, Kafka, PUB, IaC, Terraform, Docker, Kubernetes, SLA Additionally: Sport Subscription, Private healthcare, Darmowa opieka księgowa*.

  • Praca Warszawa
  • Warszawa - Oferty pracy w okolicznych lokalizacjach


    101 474
    14 395