uczestnictwo w projekcie dot. branży bankowej. Wykorzystywany stos technologiczny: Python, PySpark, Scala, Hadoop, SQL,
projektowanie architektury i wdrażanie nowoczesnych systemów przetwarzania danych w obszarze Big Data, w tym systemów wykorzystujących analitykę strumieniową i uczenie maszynowe,
zapewnienie wysokiej jakości procesu rozwoju i wdrożenia,
tworzenie dokumentacji technicznej,
badanie i wdrażanie nowych rozwiązań (R&D),
współpraca z innymi zespołami w celu wsparcia developmentu,
praca w modelu hybrydowym: 2 razy w miesiącu praca z biura w Warszawie,
requirements-expected :
masz minimum 2 lata doświadczenia w branży IT,
masz minimum rok doświadczenia w programowaniu procesów Spark w Pythonie lub Scali,
znasz koncepcję Big Data, Hurtowni Danych i Zarządzania Danymi,
masz doświadczenie w pracy z Hadoop,
znasz różne formaty danych: JSON, PARQUET, ORC, AVRO,
pracujesz z bazami danych i systemami przetwarzania danych, np. hive, kudu, hbase,
znasz SQL,
masz doświadczenie w integracji danych z wielu źródeł,
komunikujesz się w języku angielskim,
offered :
długofalową współpracę - różnorodne projekty (działamy w ramach Software Services, Embedded Services, Data Services, Cloud Services),
możliwość rozwoju kompetencji we współpracy z naszym Center of Excellence,
dostęp do technologicznej platformy e-learningowej - Udemy,
kafeteryjny system benefitów – Motivizer,
prywatną opiekę medyczną – Luxmed,
możliwość wystąpień na naszych autorskich eventach IT- ProMEET.