Projektowanie, rozwój i utrzymanie aplikacji backendowych w Javie, w tym rozbudowa istniejących systemów oraz implementacja nowych funkcjonalności wykorzystujących modele ML/LLM.
Tworzenie i rozwój serwisów integrujących modele AI poprzez API (REST/gRPC), w tym obsługa promptów oraz implementacja logiki orchestration.
Współtworzenie i utrzymanie AI Gateway / LLM Routera zarządzającego ruchem do modeli wewnętrznych i zewnętrznych (routing, fallbacki, limity, logowanie).
Wdrażanie, konfiguracja i utrzymanie aplikacji w środowisku Google Cloud Platform, w szczególności z wykorzystaniem GKE oraz innych usług chmurowych.
Samodzielne przygotowywanie i zarządzanie konfiguracją aplikacji w Kubernetes (manifesty, deploymenty, skalowanie, troubleshooting).
Współpraca z zespołami MLOps i DevSecOps w zakresie automatyzacji CI/CD, bezpieczeństwa oraz stabilności środowiska produkcyjnego.
Realizacja Proof of Concept dla nowych narzędzi i technologii AI oraz ocena ich przydatności biznesowej.
Monitorowanie działania aplikacji, analiza logów oraz rozwiązywanie problemów w środowisku Linux.
Dbanie o jakość, wydajność, bezpieczeństwo i skalowalność tworzonych rozwiązań w środowisku regulowanym.
requirements-expected :
Java – doświadczenie w tworzeniu i utrzymaniu aplikacji backendowych Python lub Node.js.
umiejętność pracy z kodem, pisania i rozwijania serwisów.
Kubernetes – projektowanie i konfiguracja aplikacji działających w klastrze K8s.
Google Cloud Platform (GCP) – wdrażanie i utrzymanie rozwiązań chmurowych.
Linux/Unix – swobodna praca w środowisku serwerowym.
Doświadczenie z aplikacjami integrującymi modele ML/LLM (API, prompting, orchestration).
Samodzielność w rozwiązywaniu problemów produkcyjnych.