.
DevOps Engineer @ ITFS Sp. z o.o.
  • Warsaw
DevOps Engineer @ ITFS Sp. z o.o.
Warszawa, Warsaw, Masovian Voivodeship, Polska
ITFS Sp. z o.o.
14. 3. 2026
Informacje o stanowisku

  • Miejsce pracy: Zdalnie
  • Start: ASAP (max 30 dni OW)
  • Godziny pracy: Standardowe godziny pracy
  • Wynagrodzenie: 130-150 zł netto/h + VAT (bez płatnych urlopów)
  • Proces rekrutacyjny: Krótka rozmowa telefoniczna z ITFS ➡ Rozmowa techniczna ➡ Decyzja

  • Min. 4 lata doświadczenia zawodowego na stanowisku związanym z DevOps
  • Doświadczenie DevOps w środowisku AWS, w szczególności w zarządzaniu infrastrukturą przy użyciu Infrastructure as Code (Terraform), wspierającą skalowalne platformy danych (preferowane Databricks, dopuszczalnie Snowflake)
  • Praktyczne doświadczenie w budowaniu i utrzymaniu pipeline’ów CI/CD z wykorzystaniem Jenkins i/lub GitHub Actions
  • Doświadczenie z Kubernetes (EKS) oraz konteneryzacją (Docker)
  • Znajomość narzędzi monitoringu i obserwowalności (m.in. CloudWatch, Grafana
  • Doświadczenie we wspieraniu pipeline’ów dbt oraz orkiestracji workflow przy użyciu Apache Airflow lub podobnych narzędzi (np. Prefect, Dagster)
  • Podstawowe do średniozaawansowanych umiejętności programistyczne w Python, PySpark oraz SQL,
  • Angielski na poziomie min. B2
  • Miejsce pracy: Zdalnie
  • Start: ASAP (max 30 dni OW)
  • Godziny pracy: Standardowe godziny pracy
  • Wynagrodzenie: 130-150 zł netto/h + VAT (bez płatnych urlopów)
  • Proces rekrutacyjny: Krótka rozmowa telefoniczna z ITFS ➡ Rozmowa techniczna ➡ Decyzja
,[Zapewnienie niezawodności pipeline’ów danych oraz wsparcie obciążeń analitycznych., Utrzymanie natywnych środowisk danych w chmurze (Databricks, Snowflake) z wykorzystaniem praktyk CI/CD oraz Infrastructure as Code., Budowa i utrzymanie infrastruktury w AWS przy użyciu Terraform., Wdrażanie usług danych w kontenerach Docker oraz zarządzanie klastrami Kubernetes (EKS)., Monitorowanie systemów i pipeline’ów przy użyciu CloudWatch i Grafana w celu zapewnienia wysokiej dostępności i wydajności., Wsparcie pipeline’ów dbt oraz orkiestracja workflow z wykorzystaniem Airflow lub podobnych narzędzi (np. Prefect, Dagster). Requirements: DevOps, AWS, Infrastructure as Code, Jenkins, Kubernetes, Docker, CloudWatch, Grafana, Apache Airflow, Python Additionally: Sport subscription, Private healthcare.

  • Praca Warszawa
  • Warszawa - Oferty pracy w okolicznych lokalizacjach


    119 535
    19 881