Praca w modelu hybrydowym: 3 razy w miesiącu w biurze w Warszawie,
Stawka do 160 zł/h przy B2B w zależności od doświadczenia.
responsibilities :
uczestnictwo w projekcie dot. branży finansowej. Wykorzystywany stos technologiczny: Python, PySpark, AWS, Kafka, SQL, Hadoop, Hive, BI Tools (Power BI / Tableau / Qlik),
praca nad nowym, greenfieldowym rozwiązaniem typu Data Lake opartym na AWS,
praca w międzynarodowym zespole, który działa blisko biznesu i ma realny wpływ na rozwój platformy danych,
tworzenie i utrzymywanie wysokiej jakości procesów ETL,
integracja danych w czasie rzeczywistym,
dbałość o jakość dostarczanego oprogramowania,
requirements-expected :
posiadasz minimum 3 lata doświadczenia jako Data Engineer,
bardzo dobrze znasz Python (w tym JupyterLab, PySpark),
swobodnie pracujesz w środowisku AWS,
masz bardzo dobrą znajomość SQL,
znasz narzędzia BI (Power BI, Tableau, Qlik),
masz doświadczenie z narzędziami CI/CD, takimi jak Git, Jenkins itp.,
pracujesz zgodnie z metodykami Agile,
posiadasz doświadczenie w pracy z Kafka, Hive i Hadoop,
biegle komunikujesz się w języku angielskim (min. B2).
offered :
stabilną współpracę i różnorodne projekty (Software, Embedded, Data, Cloud Services),
możliwość rozwoju kompetencji jako Ambasador Scalo - doskonal skille techniczne i presalesowe w społeczności naszych ekspertów, wpływaj na rozwój organizacji, wspieraj innych,
przestrzeń do budowania marki osobistej - twórz wartościowe treści, dziel się wiedzą i doświadczeniem, występuj jako prelegent na wydarzeniach (np. ProMeet),