Kogo poszukujemy?
Poszukujemy osoby do praca z systemami o dużych wolumenach danych w środowisku Apache Airflow, Spark, Hadoop, optymalizacji procesów przetwarzania i przesyłania danych.
Jakie będę Twoje główne obowiązki?
- Projektowanie i rozwój zaawansowanych aplikacji przy użyciu języka Python.
- Współpraca z zespołem deweloperskim w celu tworzenia i wdrażania nowych funkcji.
- Diagnozowanie i usuwanie błędów w aplikacjach, dbanie o ich wydajność.
- Testowanie aplikacji i zapewnianie ich jakości.
- Ciągłe doskonalenie istniejących funkcjonalności oraz wprowadzanie nowych.
- Tworzenie dokumentacji technicznej.
Co jest dla nas ważne?
- Biegła znajomość języków programowania, takich jak Python i SQL.
- Znajomość platformy BigQuery DWH.
- Min. 2 lata doświadczenie jako programista.
- Znajomość inżynierii oprogramowania, dobrych zasad, praktyk i rozwiązań.
- Znajomość co najmniej jednego narzędzia do orkiestracji i planowania, na przykład Airflow.
- Znajomość obszaru i narzędzi DevOps - GKE, Docker.
Co możemy Ci zaoferować?
- Stabilne zatrudnienie w oparciu o umowę o pracę lub B2B.
- Zdobywanie doświadczenia zawodowego w dużej międzynarodowej organizacji.
- Udział w ciekawych projektach obejmujących różne branże i Klientów.
- Profesjonalny onboarding i szkolenia wprowadzające.
- Możliwość pracy w trybie hybrydowym/zdalnym.
- Dofinansowanie do pakietu prywatnej opieki medycznej w Medicover.
- Dofinansowanie do karty sportowej Multisport.
- Naukę języka angielskiego na platformie TUTLO.
- Możliwość przystąpienia do ubezpieczenia grupowego na preferencyjnych warunkach.