Praca przy tworzeniu globalnej platformy analitycznej w firmie, z myślą o skalowalności i kosztach.
Projektowanie i rozwój data pipelineów (batch, streaming).
Tworzenie i utrzymywanie kontraktów danych, testów i metryk jakości (freshness, completeness, accuracy).
Projektowanie algorytmów (deduplikacja, windowing, segmentacja) i struktur danych zoptymalizowanych dla tysięcy eventów na sekundę.
Zbieranie, analiza i synteza wymagań od zespołów produktowych, analityków i Data Science.
Propagowanie kultury data-driven w organizacji.
Tworzenie dokumentacji oraz proponowanie nowych rozwiązań i kierunków dalszego rozwoju.
requirements-expected :
Nasze wymaganiainimum 6 lat komercyjnego doświadczenia w programowaniu w języku Python lub Go
Doświadczenie w pracy z co najmniej jednym z narzędzi: Apache Airflow, Spark, Beam, NiFi, Flink
Biegłość w SQL (PostgreSQL) i NoSQL - key-value, dokumentowe, time-series oraz kolumnowe DWH
Pisanie kodu wg zasad Clean Code (np. "Meaningful Variable and Function Names", "Keep Functions and Methods Short.)
Doświadczenie z silnikami kolejek
Znajomość powszechnie stosowanych formatów, algorytmów i struktur danych
offered :
Możliwość pracy nad kluczowym systemem płatniczym w Polsce, mającym realny wpływ na codzienne życie milionów użytkowników
Autonomię w podejmowaniu decyzji technicznych i możliwość wprowadzania innowacyjnych rozwiązań
Pracę w środowisku, które ceni wiedzę ekspercką, argumenty merytoryczne i wspiera kulturę ciągłego uczenia się
Elastyczne godziny pracy, praca hybrydowa
Pakiet standardowych benefitów (zawierający m.in. opiekę medyczną, ubezpieczenie na życie, naukę języka angielskiego, nieograniczony dostęp do dużej platformy e-learningowej, MyBenefit)