ZADANIA: - Projektowanie i utrzymanie procesów ETL/ELT oraz pipeline’ów danych - Optymalizacja istniejących przepływów danych, zapytań SQL i wydajności baz danych - Integracja danych z różnych źródeł i rozwój hurtowni danych - Budowa i utrzymanie mechanizmów kontroli jakości danych - Dokumentowanie rozwiązań i współpraca z zespołami analitycznymi i biznesowymi OCZEKIWANIA: - Doświadczenie w pracy na podobnym stanowisku - warunek konieczny! - Praktyka w pracy z relacyjnymi bazami danych (Oracle, AWS Redshift), - Bardzo dobra znajomość SQLa i Pythona (mile widziane certyfikaty) - Doświadczenie w projektowaniu i realizacji procesów ETL/ELT (np. KNIME, dbt, Informatica) - Znajomość koncepcji hurtowni danych (Snowflake, Data Vault) - Znajomość zasad modelowania danych i architektury danych - Doświadczenie w tworzeniu i utrzymywaniu mechanizmów kontroli jakości danych (data quality checks) - Podstawowa znajomość Tableau będzie atutem - Znajomość j. angielskiego na poziomie min. B2 - Znajomość j. niemieckiego mile widziana OFERUJEMY: - Możliwości rozwoju w międzynarodowej organizacji, - Kulturę organizacyjną opartą na szacunku i zaufaniu, - Szeroki i elastyczny pakiet benefitów, - Możliwość pracy w 100% zdalnej.