GET IT TOGETHER SPÓŁKA Z OGRANICZONĄ ODPOWIEDZIALNOŚCIĄ
13. 3. 2026
Informacje o stanowisku
technologies-expected :
Python
Apache Airflow
Argo Workflows
Spark
responsibilities :
Tworzenie, rozwój oraz testowanie kodu związanego z budową modeli predykcyjnych i algorytmów uczenia maszynowego
Analiza, utrzymanie i refaktoryzacja istniejącego kodu oraz repozytoriów w celu poprawy jakości, wydajności i stabilności rozwiązań
Debugowanie i diagnozowanie problemów występujących w procesie tworzenia modeli, algorytmów oraz prototypów aplikacji
Współpraca przy projektowaniu i rozwijaniu interfejsów oraz komponentów systemu wspierających analizę i przetwarzanie danych
Weryfikacja oraz doskonalenie rozwiązań opracowywanych przez zespół deweloperski
Udział w pracach nad automatyzacją procesów analitycznych oraz optymalizacją algorytmów wykrywania anomalii w danych
Wsparcie w budowie prototypów narzędzi umożliwiających analizę danych użytkowników oraz estymację zasięgów kampanii reklamowych
requirements-expected :
Co najmniej 5 lat doświadczenia w obszarze rozwoju oprogramowania, inżynierii danych lub analizy danych, zdobytego w pracy zespołowej w środowisku developerskim
Doświadczenie w projektowaniu i wdrażaniu skalowalnych systemów analitycznych działających w czasie rzeczywistym
Udział w projektach wykorzystujących uczenie maszynowe, w szczególności w obszarze systemów rekomendacyjnych lub scoringowych
Doświadczenie w budowie i utrzymaniu systemów o wysokiej wydajności, niskich opóźnieniach oraz wysokiej dostępności
Znajomość wzorców architektonicznych oraz zagadnień związanych z optymalizacją wydajności, skalowalnością i niezawodnością systemów
Praktyczne doświadczenie w przetwarzaniu danych strumieniowych (np. Kafka, Flink, Spark Streaming lub rozwiązania o podobnej funkcjonalności)
Bardzo dobra znajomość języka Python wykorzystywanego w przetwarzaniu danych oraz automatyzacji procesów
Doświadczenie w pracy z narzędziami orkiestracji przepływów danych (np. Apache Airflow, Argo Workflows) oraz frameworkami do przetwarzania dużych wolumenów danych (Apache Spark)
Znajomość baz danych NoSQL (np. Redis, MongoDB, FoundationDB) oraz kolumnowych baz analitycznych (np. ClickHouse)
offered :
Formę współpracy w oparciu o kontrakt b2b z Get IT Together
Pracę zdalną
Niezbędne narzędzia pracy
Udział w dużym, międzynarodowym projekcie wdrożenia
Długoterminową współpracę
Współpracę z doświadczonym zespołem konsultantów SAP