Projektowanie, rozwój i optymalizacja hurtowni danych z wykorzystaniem platformy Snowflake.
Tworzenie i utrzymanie procesów ETL/ELT z wykorzystaniem narzędzi i rozwiązań takich jak Snowpark, Snowpipe, aplikacje i skrypty Python, oraz dbt, Talend, IPC, Apache Airflow lub inne.
Implementacja struktur danych wspierających analitykę biznesową i raportowanie.
Monitorowanie wydajności baz danych oraz virtual warehouse’ów oraz optymalizacja zapytań SQL.
Współpraca z zespołami analitycznymi i biznesowymi w celu zrozumienia wymagań i dostosowania rozwiązań.
Udział w projektach migracji danych do chmury.
requirements-expected :
Minimum 2 lata doświadczenia w pracy na stanowisku Database Developer lub Data Engineer.
Znajomość platformy Snowflake oraz jej funkcji (m.in. Time Travel, Virtual Warehouses, Secure Data Sharing).
Bardzo dobra znajomość języka Python oraz SQL, umiejętność optymalizacji zapytań.
Doświadczenie w projektowaniu i implementacji procesów ETL/ELT.
Umiejętność pracy z narzędziami integracyjnymi i orkiestracyjnymi (np. dbt, Talend, Apache Airflow).
Doświadczenie z jedną z chmur obliczeniowych (AWS, Azure, Google Cloud).
Znajomość języka angielskiego, pozwalająca na komunikację mówioną i pisaną w tym języku.
offered :
Udział w dużych korporacyjnych wdrożeniach.
Rozwój kariery przy wsparciu profesjonalistów z wieloletnim doświadczeniem w międzynarodowych firmach.
Szeroki wachlarz wewnętrznych szkoleń z technologii związanych z hurtowniami danych i procesami migracji danych, np. Informatica PowerCenter, Talend, dbt oraz business intelligence.
W 100% indywidualne podejście do pracownika - praca w niewielkiej firmie.