Chcesz rozwijać się w kierunku Data Engineering i pracować z ogromnymi wolumenami danych? Dołącz do zespołu ekspertów w jednej z kluczowych instytucji finansowych, gdzie będziesz projektować i optymalizować nowoczesne rozwiązania oparte na Ab Initio i Big Data Czeka na Ciebie środowisko, w którym nauka, technologia i dobra atmosfera idą w parze - dołącz do nas! Wymagania: Minimum 4 lata doświadczenia w pracy z Ab Initio (GDE) Umiejętność analizy, projektowania, implementacji, testowania oraz wdrażania rozwiązań ETL Doświadczenie w tworzeniu i optymalizacji Ab Initio Graphs Znajomość narzędzi: Conduct>IT , Ab Initio Control Center , shell scripting Zrozumienie przepływów danych i architektury Data Lake Mile widziane doświadczenie w:- Big Data (Hadoop, Avro, ORC, Hive),- Express>IT, Query>IT, Metadata Hub,- SQL i bazach relacyjnych,- branży bankowo-finansowej Umiejętność pracy w metodykach Agile/Scrum Obowiązki: Projektowanie i budowa wydajnych oraz skalowalnych procesów ETL/ELT w Ab Initio Tworzenie i rozwijanie Data Lake/Data Warehouse dla dużych wolumenów danych Utrzymanie i optymalizacja istniejących pipeline’ów danych Praca z różnorodnymi źródłami danych oraz standaryzacja/ walidacja danych Udział w pełnym cyklu wytwarzania oprogramowania – od analizy po wdrożenie Integracja rozwiązań ETL z platformami Big Data Współpraca z analitykami, architektami oraz zespołami biznesowymi Co oferujemy: Stabilny projekt w renomowanej instytucji finansowej Elastyczny model pracy hybrydowej Możliwość pracy z dużymi wolumenami danych i nowoczesnymi technologiami Big Data Rozwój kompetencji poprzez udział w dużych inicjatywach transformacyjnych Międzynarodowe środowisko pracy i zespół ekspertów