Dołącz do zespołu realizującego zaawansowane projekty Big Data w branży ochrony zdrowia. Jako HD DevOps Hadoop Engineer będziesz odpowiedzialny za zarządzanie infrastrukturą Hadoop, Spark oraz automatyzację procesów CI/CD.
HD DevOps Hadoop Engineer
Twój zakres obowiązków
- Zarządzanie i konfiguracja klastrów Hadoop (HDFS, Airflow, Ranger)
- Konfiguracja i optymalizacja Apache Spark
- Automatyzacja procesów z użyciem Ansible
- Wdrażanie i utrzymanie standardów CI/CD
- Praca z Kubernetes i Docker
- Pisanie i utrzymanie skryptów shellowych
- Monitorowanie i rozwiązywanie problemów produkcyjnych
Nasze wymagania
- Min. 3 lata doświadczenia jako DevOps Engineer / Administrator Big Data
- Udział w co najmniej jednym wdrożeniu produkcyjnym
- Znajomość HDFS, Apache Hadoop (Airflow, Ranger), Apache Spark
- Doświadczenie z klastrami High Availability
- Znajomość Ansible, Kubernetes, Docker
- Umiejętność pisania skryptów shellowych
- Dobra organizacja pracy i nastawienie na cele
- Komunikatywność, samodzielność, odporność na stres
- Doświadczenie w projektach ochrony zdrowia lub hurtowniach danych
- Znajomość PostgreSQL/EDB
- Certyfikaty Agile PM, Cloudera CCAH lub równoważne