Informacje o stanowisku
O projekcie:
Projekt realizowany dla sektora medycznego, mający na celu wytworzenie rozwiązań przetwarzających duże zbiory danych w końcowe zbiory raportowe.
Nasze oczekiwania:
- Min. 3 letnie doświadczenie na podobnym stanowisku
- Dobra znajomość języka Python
- Praktyczna znajomość Airflow oraz Sparka
- Bardzo dobra znajomość SQL
- Komunikatywna znajomość j. angielskiego (min. B2)
Mile widziane:
- Znajomość platformy Hadoop oraz innych narzędzi Big Data
- Doświadczenie w DWH oraz procesach ETL
- Doświadczenie w pracy w zespole SCRUMowym
Kluczowe zadania:
- Implementacja data martów oraz zbiorów raportowych w pyspark
- Tworzenie definicji przepływu danych w Airflow
- Tworzenie oraz optymalizacja rozwiązań
Praca KatowiceKatowice - Oferty pracy w okolicznych lokalizacjach