Machine Learning Engineer Miejsce pracy: Warszawa Technologie, których używamy Wymagane MongoDB SQL BigQuery Python Scala Apache Spark Google Cloud Platform Terraform Kotlin Java Mile widziane Looker Studio React.js O projekcie Wspólnie z Naszym Partnerem z branży e-commerce, jednej z największych rozwijających się platform handlowych w Europie Środkowo-Wschodniej poszukujemy doświadczonej osoby na stanowisko Senior Software Engineer / Data Scientist w obszarze monitorowania cen, asortymentu i mapowania danych zewnętrznych. Dołączysz do zespołu odpowiedzialnego za budowę systemów działających w czasie rzeczywistym, które monitorują i analizują dane dotyczące ofert, cen oraz asortymentu, zarówno wewnętrzne, jak i pozyskiwane ze źródeł zewnętrznych. Kluczowym wyzwaniem jest mapowanie, normalizacja i ujednolicanie danych z różnych źródeł, tak aby zasilać nimi modele analityczne i predykcyjne wspierające decyzje biznesowe. Twój zakres obowiązków Wsparcie w przygotowywaniu i trenowaniu modeli AI/ML, przeprowadzanie testów A/B, walidacja hipotez badawczych. Rozwój usług backendowych w Kotlin/Java oraz przetwarzanie dużych wolumenów danych w Scala i BigQuery. Projektowanie, implementacja i utrzymanie potoków danych (Apache Airflow / Cloud Composer) na GCP. Wizualizacja wyników analiz i prezentowanie ich interesariuszom biznesowym (Data Storytelling). Zapewnienie wiarygodności i jakości danych w potokach przetwarzania (Data Veracity). Udział w usłudze gotowości technicznej (on-call / reagowanie na incydenty). Zarządzanie infrastrukturą chmurową GCP z wykorzystaniem Terraform. Nasze wymagania Min. 3-6 lat doświadczenia w Software Engineering. Doświadczenie z MongoDB (modelowanie dokumentowe) oraz biegły SQL w kontekście BigQuery. Doświadczenie w pracy z systemami Big Data i rozumienie wyzwań wydajnościowych. Doświadczenie z Feature Engineering i rozumienie pełnego cyklu życia modeli AI. Znajomość Python/Scala w kontekście procesowania danych (Apache Spark). Praktyczna znajomość Vertex AI (eksperymenty, endpointy, Feature Store). Praktyczne doświadczenie z Apache Airflow / Google Cloud Composer. Znajomość usług GCP i zarządzanie infrastrukturą przez Terraform (IaC). Zaawansowane rozumienie metod statystycznych. Biegła znajomość Kotlin lub Java (backend). Język angielski na poziomie biegłym. Mile widziane Doświadczenie z Looker Studio - budowanie dashboardów i wizualizacji BI. Tworzenie komponentów frontendowych w ReactJS. Tak organizujemy naszą pracę Tak pracujemy scrum To oferujemy Projekty z realnym wpływem, Twój kod i Twoje modele działają na danych milionów transakcji i wpływają na decyzje dziesiątek tysięcy sprzedawców. To nie jest projekt do szuflady. Praca zdalna na co dzień, pracujesz skąd chcesz. Raz na kwartał spotykasz się z zespołem w Warszawie lub Poznaniu, żeby porozmawiać o tym, co naprawdę ważne. Stabilność perspektywa - współpraca do końca 2026 roku z możliwością przedłużenia. Zaczynasz ASAP i wchodzisz w projekt od razu na pełnych obrotach. Uczestnictwo w spotkaniach integracyjnych oraz meetupach technologicznych, umożliwiających dzielenie się wiedzą i doświadczeniem. Wsparcie dedykowanej osoby kontaktowej z Connectis, dostępnej w celu pomocy w sprawach związanych z projektem. 5000 PLN za polecenie znajomych do naszych projektów. Stabilną, długofalową współpracę w oparciu B2B. Proces zdalny. Dziękujemy za wszystkie zgłoszenia. Uprzejmie informujemy, że skontaktujemy się z wybranymi osobami. Connectis_ Connectis_ to ponad 20 lat doświadczenia w branży, 60.000 Specjalistów IT i tysiące projektów zrealizowanych w 14 krajach.