Poszukujemy doświadczonego AI Engineera do zespołu Data Surveillance & Data Quality.
Osoba na tym stanowisku będzie działała proaktywnie i praktycznie, od pierwszego dnia mając wpływ na architekturę, budowę i wdrażanie rozwiązań AI stanowiących fundament inteligentnego monitoringu danych. Zakres obowiązków obejmuje transformację modeli detekcji anomalii i predykcyjnego oceniania jakości danych w niezawodne, produkcyjne usługi, ze szczególnym naciskiem na MLOps i LLMOps.
responsibilities :
Architektura MLOps: Projektowanie, implementacja i utrzymanie kompleksowego pipeline’u MLOps/LLMOps dla CI/CD oraz monitorowania wszystkich modeli jakości danych.
Wdrażanie i skalowanie modeli: Budowa odpornych, wysoko dostępnych API i usług do wdrażania oraz serwowania modeli AI/ML (np. wykrywanie anomalii, predykcyjna ocena jakości danych) w centralnej platformie nadzorowania danych, gwarantując stabilność przy wysokich wolumenach danych.
Zaawansowana integracja AI: Wykorzystanie i integracja specjalistycznych narzędzi AI (np. LangChain, Portkey, Galileo, HuggingFace Transformers) w celu rozwijania inteligentnych agentów jakości danych, automatycznej klasyfikacji błędów i zaawansowanych procesów wzbogacania danych.
Zarządzanie infrastrukturą: Ścisła współpraca z Data Engineerami i zespołami IT Operations w zakresie zarządzania infrastrukturą chmurową (AWS) umożliwiającą skalowalne serwowanie modeli, monitoring oraz automatyczne trenowanie modeli.
Monitoring wydajności i driftu: Implementacja systemów monitorowania wydajności modeli, detekcji driftu danych i modeli oraz automatyzacja cyklu retrainingu.
Bezpieczeństwo i zgodność: Zapewnienie, aby wszystkie systemy AI w produkcji były zgodne z wewnętrznymi politykami bezpieczeństwa oraz standardami regulacyjnymi GxP.
requirements-expected :
Doświadczenie na stanowisku AI Engineer, ML Engineer lub MLOps Engineer w środowisku produkcyjnym.
Ekspertyza w projektowaniu i zarządzaniu skalowalnymi systemami workflow ML/AI (np. AWS Sagemaker, Kubeflow, MLflow).
Biegłość w Pythonie, doświadczenie w tworzeniu stabilnego, udokumentowanego i testowanego kodu produkcyjnego.
Praktyczne doświadczenie z konteneryzacją (Docker) i orkiestracją (Kubernetes).
Doświadczenie we wdrażaniu i serwowaniu modeli opartych na Transformerach lub LLM (HuggingFace, LangChain).
Doświadczenie z platformami chmurowymi, szczególnie AWS (Lambda, EC2, Sagemaker).
Solidna znajomość zagadnień architektury systemowej, obliczeń rozproszonych i przetwarzania strumieniowego.