Informacje o stanowisku
Masz doświadczenie w pracy z modelami machine learning w środowiskach produkcyjnych i chcesz rozwijać się w ambitnych projektach? Szukamy właśnie Ciebie!
Dla naszego klienta poszukujemy MLOpsEngineer, który dołączy do zespołu zajmującego się wdrażaniem, monitorowaniem i utrzymaniem modeli uczenia maszynowego w środowisku chmurowym.
Wymagania:
- Udokumentowane doświadczenie w wdrażaniu i monitorowaniu modeli machine learning w środowiskach produkcyjnych,
- Minimum 5 lat doświadczenia w pracy z Dockerem, Kubernetesem, Helm i pipelineami CI/CD,
- Co najmniej 5 lat pracy z narzędziami do monitorowania, takimi jak Prometheus, Thanos czy Grafana,
- Znajomość narzędzi do monitorowania modeli, takich jak Arize, *Evidently AI czy Alibi Detect,
- Doświadczenie w przeprowadzaniu testów A/B oraz pracy z oprogramowaniem typu service mesh (np. Istio),
- Biegłość w korzystaniu z platform takich jak Kubeflow czy OpenDataHub do wdrażania i zarządzania modelami,
- Bardzo dobra znajomość zagadnień związanych z monitorowaniem infrastruktury i najlepszymi praktykami w tym zakresie,
- Świetne umiejętności rozwiązywania problemów i diagnozowania złożonych zagadnień technicznych,
- Doświadczenie w pracy z platformami chmurowymi (AWS LUB Google Cloud Platform LUB Azure),
- Znajomość języków skryptowych i automatyzacji (np. Bash, Python).
- Znajomość j. angielskiego pozwalającą na swobodną komunikację zarówno w mowie jak i w piśmie
Oferujemy:
- płatny urlop
- Pracę w środowisku międzynarodowym - stały - całość pracy w środowisku anglojęzycznym
Obowiązki:
- Wdrażanie modeli machine learning LLM do środowisk produkcyjnych,
- Monitorowanie działania modeli i ich wydajności w czasie rzeczywistym,
- Tworzenie i utrzymywanie pipelineów CI/CD,
- Konfiguracja i zarządzanie kontenerami Docker oraz klastrami Kubernetes,
- Ustawianie i rozwijanie monitoringu systemów przy użyciu narzędzi takich jak Prometheus, Thanos, Grafana,
- Implementacja testów A/B oraz integracja z service mesh (np. Istio),
- Praca z platformami do zarządzania modelami, takimi jak Kubeflow i OpenDataHub,
- Automatyzacja zadań za pomocą skryptów (np. Bash, Python),
- Rozwiązywanie problemów technicznych i optymalizacja działania systemów,
- Współpraca z zespołami Data Science, DevOps i inżynierii w celu zapewnienia stabilności wdrożeń.
Praca GdyniaGdynia - Oferty pracy w okolicznych lokalizacjach