W Scalo zajmujemy się dostarczaniem projektów softwareowych i wspieraniem naszych partnerów w rozwijaniu ich biznesu. Tworzymy oprogramowanie, które umożliwia ludziom dokonywanie zmian, działanie w szybszym tempie oraz osiąganie lepszych rezultatów. Jesteśmy firmą, która wykorzystuje szerokie spektrum usług IT, żeby pomagać klientom.
Obszary naszego działania to m.in.: doradztwo technologiczne, tworzenie oprogramowania, systemy wbudowane, rozwiązania chmurowe, zarządzanie danymi, dedykowane zespoły developerskie.
responsibilities :
praca nad rozwiązaniami przeciwdziałającymi praniu pieniędzy (AML), opartymi na AI, z których korzystają fintechy, banki i organy regulacyjne na całym świecie,
projektowanie i rozwijanie skalowalnego pipeline’u do przetwarzania danych oraz rozwiązań Machine Learning z wykorzystaniem nowoczesnych technologii Big Data,
odpowiedzialność za rozwój produktu – od analizy wymagań biznesowych, przez projektowanie i implementację, po testy jednostkowe i rozwiązywanie problemów produkcyjnych,
praca zdalna w zespole międzynarodowym (+1h względem polskiej strefy czasowej),
stawka do 130 zł/h przy B2B – w zależności od doświadczenia.
requirements-expected :
masz minimum 3 lata doświadczenia w roli Data Engineera z wykorzystaniem Pythona lub Javy (preferowany poziom Regular/Senior),
pracowałeś/aś z frameworkami do przetwarzania danych – Spark, Hadoop oraz narzędziem orkiestracyjnym Airflow,
masz doświadczenie z bazami danych NoSQL – takimi jak Elasticsearch, MongoDB, Redis,
posiadasz praktyczne doświadczenie w tworzeniu i utrzymaniu architektury mikroserwisowej,
pracowałeś/aś w środowiskach skonteneryzowanych – mile widziane doświadczenie z Kubernetes, Helm,
znasz dobrze metodyki zwinne (Agile),
swobodnie komunikujesz się w języku angielskim w środowisku międzynarodowym (min. B2+/C1).
offered :
długofalową współpracę - różnorodne projekty (działamy w ramach Software Services, Embedded Services, Data Services, Cloud Services),
możliwość rozwoju kompetencji we współpracy z naszym Center of Excellence,