Nasz klient poszukuje Snowflake Engineera, który dołączy do jego zespołu i od pierwszego dnia będzie miał realny wpływ na rozwój produktu i firmy.
Jeśli chcesz współpracować z doświadczonym zespołem, pracować w miejscu, gdzie Twoje pomysły i inicjatywa są doceniane, to ta rola jest właśnie dla Ciebie!
responsibilities :
Tworzenie, implementowanie i optymalizacja procesów przetwarzania danych w Snowflake, wspierających potrzeby związane z analityką biznesową, raportowaniem i nauką o danych.
Rozwój i zarządzanie elastycznymi procesami ETL/ELT z wykorzystaniem narzędzi takich jak dbt, Apache Airflow, Matillion lub podobnych.
Projektowanie i utrzymywanie hurtowni danych oraz jezior danych, zapewniając zgodność z najlepszymi praktykami w zakresie modelowania wymiarowego oraz partycjonowania danych.
Tworzenie i utrzymywanie bezpiecznych środowisk danych, zarządzanie politykami dostępu do danych oraz rolami użytkowników.
Monitorowanie wydajności, niezawodności i kosztów procesów przetwarzania danych.
Ścisła współpraca z analitykami danych, naukowcami danych i innymi zespołami inżynierskimi w celu zrozumienia wymagań dotyczących danych oraz dostarczania rozwiązań.
Integracja Snowflake z zewnętrznymi źródłami danych i narzędziami, takimi jak AWS S3, Azure Data Lake, Kafka czy API innych firm.
Diagnozowanie i rozwiązywanie problemów związanych z danymi, zapewniając ich jakość i spójność na różnych platformach.
Automatyzowanie oraz utrzymywanie procesów CI/CD dla infrastruktury danych.
requirements-expected :
Wykształcenie wyższe (licencjackie lub magisterskie) w dziedzinie Informatyki, Inżynierii, Systemów Informacyjnych lub pokrewnej.
Minimum 4 lata doświadczenia w pracy jako inżynier danych lub przy rozwoju platform danych.
Doświadczenie w pracy z Snowflake, obejmujące optymalizację wydajności, modelowanie danych oraz zaawansowane zapytania SQL.
Biegłość w SQL oraz językach skryptowych, takich jak Python czy Scala.
Znajomość narzędzi do tworzenia procesów ETL/ELT i orkiestracji, takich jak dbt, Airflow czy Talend.
Wiedza na temat platform chmurowych, takich jak AWS, Azure czy GCP.
Zrozumienie koncepcji hurtowni danych, projektowania schematów gwiazdy/śnieżki oraz technik normalizacji/denormalizacji danych.
Doświadczenie w pracy w metodologii zwinnej i korzystaniu z narzędzi takich jak Jira lub Confluence.
Długoterminową współpracę – oferujemy długotrwałe projekty, a po ich zakończeniu staramy się znaleźć inne, które będą dopasowane do Twoich umiejętności.