Nasz klient poszukuje Snowflake Engineera, który dołączy do jego zespołu i od pierwszego dnia będzie miał realny wpływ na rozwój produktu i firmy.
Jeśli chcesz współpracować z doświadczonym zespołem, pracować w miejscu, gdzie Twoje pomysły i inicjatywa są doceniane, to ta rola jest właśnie dla Ciebie!
Snowflake Engineer
Twój zakres obowiązków
- Tworzenie, implementowanie i optymalizacja procesów przetwarzania danych w Snowflake, wspierających potrzeby związane z analityką biznesową, raportowaniem i nauką o danych.
- Rozwój i zarządzanie elastycznymi procesami ETL/ELT z wykorzystaniem narzędzi takich jak dbt, Apache Airflow, Matillion lub podobnych.
- Projektowanie i utrzymywanie hurtowni danych oraz jezior danych, zapewniając zgodność z najlepszymi praktykami w zakresie modelowania wymiarowego oraz partycjonowania danych.
- Tworzenie i utrzymywanie bezpiecznych środowisk danych, zarządzanie politykami dostępu do danych oraz rolami użytkowników.
- Monitorowanie wydajności, niezawodności i kosztów procesów przetwarzania danych.
- Ścisła współpraca z analitykami danych, naukowcami danych i innymi zespołami inżynierskimi w celu zrozumienia wymagań dotyczących danych oraz dostarczania rozwiązań.
- Integracja Snowflake z zewnętrznymi źródłami danych i narzędziami, takimi jak AWS S3, Azure Data Lake, Kafka czy API innych firm.
- Diagnozowanie i rozwiązywanie problemów związanych z danymi, zapewniając ich jakość i spójność na różnych platformach.
- Automatyzowanie oraz utrzymywanie procesów CI/CD dla infrastruktury danych.
Nasze wymagania
- Wykształcenie wyższe (licencjackie lub magisterskie) w dziedzinie Informatyki, Inżynierii, Systemów Informacyjnych lub pokrewnej.
- Minimum 4 lata doświadczenia w pracy jako inżynier danych lub przy rozwoju platform danych.
- Doświadczenie w pracy z Snowflake, obejmujące optymalizację wydajności, modelowanie danych oraz zaawansowane zapytania SQL.
- Biegłość w SQL oraz językach skryptowych, takich jak Python czy Scala.
- Znajomość narzędzi do tworzenia procesów ETL/ELT i orkiestracji, takich jak dbt, Airflow czy Talend.
- Wiedza na temat platform chmurowych, takich jak AWS, Azure czy GCP.
- Zrozumienie koncepcji hurtowni danych, projektowania schematów gwiazdy/śnieżki oraz technik normalizacji/denormalizacji danych.
- Doświadczenie w pracy w metodologii zwinnej i korzystaniu z narzędzi takich jak Jira lub Confluence.
To oferujemy
- Pracę zdalną
- Umowę B2B – elastyczność współpracy, prostota rozliczeń,
- Długoterminową współpracę – oferujemy długotrwałe projekty, a po ich zakończeniu staramy się znaleźć inne, które będą dopasowane do Twoich umiejętności.
- Szybki proces rekrutacyjny
- Praca na własnym sprzęcie