Jako MLops Engineer, będziesz odpowiedzialny za projektowanie, wdrażanie i utrzymanie infrastruktury do pracy z modelami uczenia maszynowego w środowisku produkcyjnym. Twoje zadania obejmować będą automatyzację procesów związanych z cyklem życia modeli ML, optymalizację procesów wdrożeniowych, monitorowanie działania modeli oraz zapewnienie ich skalowalności i efektywności.
Będziesz częścią zespołu, który pracuje nad nowoczesnymi rozwiązaniami opartymi na sztucznej inteligencji i wspiera rozwój technologii w obszarze przetwarzania danych oraz automatyzacji procesów biznesowych.
responsibilities :
Tworzenie, optymalizacja i zarządzanie pipelineami MLops, od trenowania modeli po ich wdrażanie do produkcji
Integracja i automatyzacja procesów z zakresu Continuous Integration/Continuous Deployment (CI/CD) dla modeli ML
Utrzymanie infrastruktury chmurowej (AWS, Azure, GCP) oraz narzędzi do zarządzania danymi i modelami (np. MLflow, Kubeflow, TensorFlow, PyTorch)
Monitorowanie i audytowanie działania modeli ML, zapewnienie ich stabilności i wydajności w produkcji
Praca z zespołami deweloperskimi, data scientistami oraz innymi interesariuszami w celu wdrażania rozwiązań ML w różnych obszarach działalności firmy
Optymalizacja zasobów obliczeniowych i kosztów infrastruktury chmurowej
Współpraca z zespołem inżynierów w zakresie skalowalności i bezpieczeństwa rozwiązań ML
requirements-expected :
Minimum 5 lata doświadczenia w pracy na stanowisku MLops Engineer, Data Engineer lub podobnym
Znajomość Pythona na poziomie zaawansowanym, w tym bibliotek i narzędzi związanych z Machine Learning (np. TensorFlow, PyTorch, Scikit-learn)
Doświadczenie w pracy z chmurowymi platformami AWS, w kontekście MLops oraz zarządzania infrastrukturą i modelami ML
Znajomość TensorFlow – doświadczenie w budowaniu, trenowaniu i wdrażaniu modeli uczenia maszynowego z wykorzystaniem TensorFlow
Praktyczna znajomość procesów CI/CD dla modeli Machine Learning – automatyzacja pipelineów trenowania i wdrażania modeli w produkcji
Doświadczenie z kontenerami Docker i orkiestracją Kubernetes – zarządzanie środowiskiem pracy dla modeli ML
Zrozumienie zarządzania cyklem życia modeli ML: od trenowania, przez testowanie, aż po wdrożenie i monitorowanie w środowisku produkcyjnym
Umiejętność optymalizacji wydajności modeli ML w środowiskach produkcyjnych, w tym monitorowanie, audytowanie i tuning
Znajomość narzędzi do monitorowania modeli ML w produkcji (np. Prometheus, Grafana, ELK stack)
Umiejętność pracy w zespołach z data scientistami, programistami i specjalistami DevOps, celem zapewnienia odpowiedniego działania modeli w produkcji
Dobra znajomość języka angielskiego (w mowie i piśmie), umożliwiająca komunikację z międzynarodowymi zespołami i korzystanie z dokumentacji technicznej
Długoterminową współpracę – oferujemy długotrwałe projekty, a po ich zakończeniu staramy się znaleźć inne, które będą dopasowane do Twoich umiejętności.