Poszukujemy AI/ML Engineera z doświadczeniem w projektach chmurowych oraz środowiskach Big Data. Rola obejmuje tworzenie i utrzymanie pipeline’ów CI/CD oraz MLOps, pracę z Pythonem, Dockerem, MLflow, PySpark oraz integracje z usługami AWS. Dołączysz do programu AI rozwijającego generatywne i predykcyjne rozwiązania wspierające obszar bezpieczeństwa finansowego.
Lokalizacja: Warszawa, Łódź, Gdynia, Gdańsk
Tryb pracy: praca hybrydowa (2 dni w biurze)
Informacje o projekcie
Długoterminowy program AI rozwijający generatywne i predykcyjne modele wspierające obszar bezpieczeństwa finansowego.
Intensywna faza rozwoju – wdrażanie nowych rozwiązań ML do produkcji.
Duża swoboda techniczna i szybkie procesy decyzyjne.
Możliwość tworzenia rozwiązań end-to-end – od eksperymentu po wdrożenie.
Aplikuj, jeśli:
Posiadasz doświadczenie w Pythonie, Big Data i AWS.
Znasz pipeline’y CI/CD i narzędzia konteneryzacyjne.
Rozumiesz MLOps i chcesz rozwijać się w kierunku automatyzacji i produkcyjnych wdrożeń ML.
Szukasz roli z realnym wpływem na rozwój zaawansowanych technologii AI.
responsibilities :
Budowa i utrzymanie pipeline’ów CI/CD dla aplikacji ML i komponentów Big Data.
Konteneryzacja aplikacji (Docker) oraz zarządzanie obrazami i artefaktami (Artifactory / Nexus).
Współpraca z Data Scientistami przy wdrażaniu modeli do środowisk testowych i produkcyjnych (MLflow, opcjonalnie Kubeflow).
Praca w środowisku Big Data (Hadoop, PySpark).
Integracja rozwiązań ML/Data z usługami chmurowymi AWS.
Utrzymanie i rozwój infrastruktury DevOps/MLOps (monitoring, logowanie, bezpieczeństwo).
Udział w projektowaniu architektury pod nowe modele generatywne i predykcyjne.
Wspieranie zespołów biznesowych w korzystaniu z dostarczonej infrastruktury i narzędzi.
requirements-expected :
Git – praca z repozytoriami, code review, branching.
Python – minimum 2 lata komercyjnie (skrypty, integracje, narzędzia dla ML/Big Data).
Bash / Linux – automatyzacja, bardzo dobra znajomość środowiska.
Jenkins – tworzenie i utrzymanie pipeline’ów CI/CD.
GitHub / Bitbucket – praca z repozytoriami i integracja z CI/CD.
Jira / Confluence – praca w metodykach Agile.
Docker – konteneryzacja aplikacji, budowa obrazów.