Projekt dotyczy budowy i rozwijania wydajnych procesów przetwarzania danych w środowisku on-premise, z wykorzystaniem nowoczesnych narzędzi Big Data. Wspierane rozwiązania mają znaczenie operacyjne i analityczne, a ich jakość i niezawodność są kluczowe dla działania organizacji.
responsibilities :
Tworzenie i rozwijanie procesów przetwarzania danych w środowisku Big Data (Apache Spark, Airflow, Hadoop).
Projektowanie i implementacja rozwiązań ETL/ELT dla dużych zbiorów danych.
Udział w pracach projektowych w środowisku on-premise.
Optymalizacja i utrzymanie istniejących pipeline’ów danych.
Programowanie w językach Python i SQL w złożonym środowisku danych.
Współpraca z zespołami analitycznymi, architektonicznymi i projektowymi.
Wspieranie procesów CI/CD i pracy z systemami kontroli wersji (Git).
requirements-expected :
Minimum 2 lata doświadczenia na stanowisku programisty Big Data.
Udział w co najmniej jednym projekcie dotyczącym przetwarzania dużych zbiorów danych.
Doświadczenie projektowe w środowisku on-premise.
Znajomość i doświadczenie w programowaniu w języku Python, SQL, Apache Spark, Apache Airflow.
Znajomość zagadnień związanych z Hadoop, CI/CD i wersjonowaniem (Git).
Doświadczenie w tworzeniu i utrzymaniu procesów ETL/ELT.
Samodzielność, dobra organizacja pracy, umiejętności interpersonalne i planowania.
Komunikatywność, odporność na stres, chęć nauki i rozwój osobisty.
offered :
Możliwość pracy przy strategicznym projekcie cyfryzacji ochrony zdrowia
Stabilna, długoterminowa współpraca w ramach dużego zamówienia publicznego
Praca z ekspertami o wysokich kompetencjach technicznych i domenowych
Model pracy hybrydowy (Warszawa + praca zdalna)
Możliwość realnego wpływu na jakość usług zdrowotnych w Polsce