Poszukujemy osoby do projektu z obszaru Big Data, którego celem jest rozwój i utrzymanie wydajnej platformy do przetwarzania oraz analizy dużych wolumenów danych w środowisku o wysokiej dostępności. Projekt ma na celu dostarczenie stabilnego i skalowalnego rozwiązania wspierającego podejmowanie decyzji opartych na danych.
responsibilities :
Utrzymanie i rozwój klastrów Big Data (Hadoop, Spark, Airflow itp.);
Automatyzacja procesów wdrożeniowych i administracyjnych (CI/CD, Ansible, scripting);
Wdrażanie i utrzymanie rozwiązań klasy High Availability;
Udział w projektach z zakresu przetwarzania dużych wolumenów danych;
Wsparcie zespołu developerskiego oraz operacyjnego w codziennych zadaniach;
Diagnostyka i rozwiązywanie incydentów oraz przeciwdziałanie ich ponownemu wystąpieniu;
Optymalizacja środowiska oraz ciągłe doskonalenie narzędzi i procesów.
requirements-expected :
Minimum 3 lata doświadczenia na stanowisku DevOps Engineer lub Administratora systemów Big Data;
Udział w co najmniej jednym wdrożeniu produkcyjnym oraz projekcie Big Data;
Praktyczna znajomość HDFS i komponentów Apache Hadoop (Airflow, Ranger, itd.);
Umiejętność konfiguracji i optymalizacji Apache Spark;
Znajomość i doświadczenie w pracy z Ansible, Kubernetes, Docker;
Znajomość standardów i narzędzi CI/CD;
Biegłość w pisaniu skryptów Shell (Bash);
Doświadczenie w pracy z klastrami o wysokiej dostępności;
Samodzielność, dobra organizacja pracy, komunikatywność i odporność na stres;
Proaktywność, dociekliwość oraz chęć ciągłego doskonalenia.
offered :
Możliwość pracy przy strategicznym projekcie cyfryzacji ochrony zdrowia;
Stabilna, długoterminowa współpraca w ramach dużego zamówienia publicznego;
Praca z ekspertami o wysokich kompetencjach technicznych i domenowych;
Model pracy hybrydowy (Warszawa + praca zdalna);
Możliwość realnego wpływu na jakość usług zdrowotnych w Polsce.