???? Forma pracy : fulltime, 100% zdalnie????
⏰ Start: pierwsza połowa stycznia ????
Cześć! ????
Dla naszego klienta z USA poszukujemy doświadczonego specjalisty Data Scientist. Klient z branży fintech buduje w środowisku Databricks platformę Merchant Payment Intelligence opartą na AI. Celem projektu jest transformacja sposobu, w jaki merchantci i PSP optymalizują wskaźniki akceptacji płatności. Obecnie średni wskaźnik akceptacji wynosi ok. 74%, a celem jest osiągnięcie 90%+.
Twoim zadaniem będzie transformacja sposobu procesowania płatności poprzez zastąpienie statycznych reguł adaptacyjnymi modelami ML, które uczą się na podstawie wyników transakcji w czasie rzeczywistym. Praca odbywa się w sporej skali - platforma procesuje ok. 1 miliarda transakcji miesięcznie (325GB danych streamingowych dziennie -> 150 GB PAY.ON + 175 GB UMP), co daje okazję do pracy z rzeczywistym Big Data i zaawansowanymi technikami ML.
Jakie rozwiązania będziesz tworzyć?
1. Dynamic Routing -> API działające w czasie rzeczywistym, przewidujące optymalne procesowanie płatności dla każdej transakcji (data/godzina, IP, kwota, typ karty, status 3DS)
2. AI ChatBot -> silnik analityczny odpowiadający na pytania merchantów
3. Smart Monitoring -> szczegółowa detekcja anomalii w zróżnicowanych wzorcach ruchu merchantów (spadki wskaźników autoryzacji, skoki 3DS, ataki botów, niedostępność metod płatności) przy minimalnej liczbie fałszywych alarmów
4. Wybór Metody Płatności -> optymalizacja widgetu płatności, rekomendującego metodę o najwyższej konwersji (Visa / PayPal / Klarna / portfele cyfrowe) na podstawie kontekstu konsumenta (region, IP, wartość zamówienia, historia)
Zakres obowiązków:
???? Projektowanie pipeline’ów feature engineeringu dla danych transakcyjnych (wskaźniki autoryzacji, prędkość transakcji, wzorce geograficzne i czasowe, atrybuty kart i issuerów)
???? Projektowanie, trenowanie i wdrażanie modeli ML (klasyfikacja, rekomendacje, szeregi czasowe) w środowisku produkcyjnym
???? Feature Engineering: Budowa potoków cech (feature pipelines) dla danych transakcyjnych (auth rates, velocity, issuer attributes)
???? Real-time Scoring: Implementacja inferencji w czasie rzeczywistym z wykorzystaniem Databricks Model Serving
???? MLOps: Ustanowienie workflow dla cyklu życia modeli (tracking eksperymentów w MLflow, wersjonowanie, testy A/B, monitorowanie dryfu)
???? Skalowanie rozwiązań: Praca na ogromnych zbiorach danych (325GB/day) przy użyciu PySpark i architektury Lakehouse
Wymagania:
⚡ 6-7 lat w obszarach Data Science/ Machine Learning
⚡ Doświadczenie w budowaniu i wdrażaniu produkcyjnych modeli ML
⚡ Bardzo dobra znajomość Python/ PySpark (przetwarzanie dużych wolumenów danych)
⚡ Praktyczna umiejętność projektowania architektur do real-time inference i streaming ML
⚡ Doświadczenie w wykorzystywaniu API do scoringu w czasie rzeczywistym
⚡ Doświadczenie w zaawansowanym feature engineeringu dla systemów o wysokiej przepustowości
⚡ Znajomość algorytmów: Gradient Boosting, Random Forests, Deep Learning (DNN/RNN)
⚡ Umiejętność podejmowania inicjatywy i samodzielność⚡ Angielski na poziomie umożliwiającym swobodną komunikację w zespole
Mile widziane:
⚡ Wiedza o flow autoryzacyjnym, fraudach i logice routingu płatności
⚡ Doświadczenie z NLP / LLM (pod kątem budowy chatbotów analitycznych)
⚡ Znajomość Reinforcement Learningu lub algorytmów Multi-armed Bandit
⚡ Doświadczenie z Graph Neural Networks (GNN) lub Vector Embeddings
⚡ Znajomość SQL
⚡ Znajomość platformy Databricks
Jak działamy i co oferujemy?
???? Stawiamy na otwartą komunikację zarówno w procesie rekrutacji jak i po zatrudnieniu - zależy nam na klarowności informacji dotyczących procesu i zatrudnienia
???? Do rekrutacji podchodzimy po ludzku, dlatego upraszczamy nasze procesy rekrutacyjne, żeby były możliwie jak najprostsze i przyjazne kandydatowi
???? Pracujemy w imię zasady 'remote first', więc praca zdalna to u nas norma, a wyjazdy służbowe ograniczamy do minimum
???? Oferujemy prywatną opiekę medyczną (Medicover) oraz kartę Multisport dla kontraktorów