?Analiza źródeł danych (data discovery) oraz automatyzacja procesu ich pozyskiwania do systemów analitycznych
?Integracja z wewnętrznymi i zewnętrznymi interfejsami API (rest api, odata)
?Wsparcie projektów migracyjnych z rozwiązań MS Integration Services do Spark + Airflow
?Budowanie struktur danych w relacyjnej hurtowni danych (MS SQL) oraz Data Lake (delta.io)
?Testowanie i dokumentowanie wykonywanych prac programistycznych.
?Monitorowanie procesów przetwarzania danych i reagowanie na potencjalne błęd
?Rozwijanie narzędzi automatyzujących prace programistyczne (m.in. wewnętrzna biblioteka standardowa, aplikacje konsolowe, cookiecutter oraz jinja templates)
requirements-expected :
?Bardzo dobra znajomość programowania w Python (v. 3.6+) – min 2 lata doświadczenia
?Znajomość i umiejętność implementacji OOP oraz SOLID,