Projektowanie, budowanie oraz modelowanie danych w sposób umożliwiający efektywną analizę i interpretację danych biznesowych. Tworzenie skalowalnych struktur danych dostarczających precyzyjnych i wartościowych informacji dla interesariuszy.
Tworzenie i optymalizacja zaawansowanych zapytań SQL, które implementują założenia biznesowe w efektywny i zrozumiały sposób. Odpowiedzialność za transformację danych z surowych źródeł w uporządkowane modele, gotowe do dalszej analizy.
Monitorowanie wydajności zaimplementowanych procesów oraz ich optymalizacja pod kątem skalowalności, szybkości i niezawodności. Ciągłe usprawnianie procesów przetwarzania danych.
Znajomość modeli semantycznych i modelowania danych – odpowiedzialność za tworzenie i zarządzanie modelami danych, które umożliwiają użytkownikom końcowym łatwy dostęp do skonsolidowanych i zrozumiałych danych. Modelowanie danych zgodne z wymogami biznesowymi umożliwi łatwe generowanie analiz i raportów.
Współpraca z zespołami analitycznymi i inżynierskimi, w tym analitykami i inżynierami danych, aby zapewnić spójność i jakość danych dostarczanych do analiz biznesowych. Dane staną się podstawą do podejmowania decyzji w firmie.
Komunikacja z interesariuszami biznesowymi w celu zbierania i analizy ich potrzeb dotyczących danych oraz dostarczania odpowiednich rozwiązań. Zrozumienie kontekstu biznesowego jest kluczowe do modelowania danych spełniających oczekiwania organizacji.
Nasze wymagania
3-5 lat doświadczenia w analizie danych, ze szczególnym uwzględnieniem pracy z SQL. Stosowanie standardów projektowania i optymalizacji kodu SQL w celu tworzenia niezawodnych, czytelnych i wydajnych zapytań.
Znajomość najlepszych praktyk projektowania, dokumentowania i wdrażania procesów przetwarzania danych. Praca oparta na nowoczesnych metodach inżynierii danych, w tym wersjonowaniu kodu, CI/CD oraz testowaniu danych.
Wysokie umiejętności w zakresie analizy i projektowania modeli danych z użyciem zapytań SQL, procedur składowanych oraz tasków, co umożliwia tworzenie dokładnych i łatwych do zrozumienia struktur danych.
Znajomość języka Python w kontekście analizy i automatyzacji procesów przetwarzania danych. Wykorzystanie tego języka do optymalizacji kodu i automatyzacji codziennych zadań.
Znajomość narzędzi chmurowych, takich jak Snowflake, umożliwiających pracę z danymi na dużą skalę. Doświadczenie z hurtowniami danych oraz narzędziami ETL.
Doświadczenie w pracy z narzędziami do wizualizacji danych i raportowania.