Data Modeler (Databricks) (m/k/n) Miejsce pracy: Wrocław Technologie, których używamy Wymagane SQL Delta Lake Unity Catalog O projekcie Poszukujemy doświadczonego Data Modelera, który będzie odpowiedzialny za projektowanie wydajnych i skalowalnych modeli danych wspierających aplikacje biznesowe. Osoba na tym stanowisku będzie ściśle współpracować z zespołami UI/UX, front-end oraz analitykami biznesowymi, przekształcając projekty aplikacji w zoptymalizowane modele danych oparte o Databricks i Delta Lake. Twój zakres obowiązków Przekładanie projektów UI aplikacji oraz wireframe’ów na kompletne modele danych, w pełni odzwierciedlające wymagania funkcjonalne Projektowanie i utrzymanie relacyjnych modeli danych z zachowaniem zasad normalizacji oraz integralności danych (PK, FK, constraints) Definiowanie relacji pomiędzy tabelami (1-1, 1-N, N-N) wspierających złożone procesy aplikacyjne Optymalizacja modeli danych pod kątem wydajności poprzez dobór odpowiednich indeksów, partycjonowania oraz typów danych zgodnych z architekturą Databricks Delta Lake Współpraca z zespołami UI/UX, developerami front-end oraz analitykami biznesowymi w celu właściwego odwzorowania logiki aplikacyjnej w strukturach danych Projektowanie modeli transakcyjnych (OLTP) oraz analitycznych (OLAP) z wykorzystaniem architektury Medallion (Bronze, Silver, Gold) Tworzenie i utrzymanie dokumentacji modelowania danych: diagramy ERD, słowniki danych, mapy lineage Implementacja reguł jakości danych oraz mechanizmów zapewniających spójność i poprawność danych Analiza planów zapytań, tuning wydajności oraz rekomendowanie zmian w schematach danych w celu poprawy responsywności aplikacji Śledzenie najlepszych praktyk Databricks, nowych funkcjonalności Delta Lake oraz trendów w modelowaniu danych w środowiskach chmurowych Nasze wymagania Minimum 5 lat doświadczenia komercyjnego w roli Data Modeler Bardzo dobra znajomość modelowania danych, projektowania baz danych oraz tworzenia schematów Praktyczne doświadczenie z platformą Databricks, w tym Delta Lake, Unity Catalog oraz SQL Analytics Dogłębna znajomość relacyjnych baz danych, zasad normalizacji (1NF–5NF), denormalizacji oraz świadomego stosowania obu podejść Znajomość technik modelowania wymiarowego (star schema, snowflake schema, tabele faktów i wymiarów) Zaawansowana znajomość SQL (projektowanie, optymalizacja, analiza wydajności zapytań) Umiejętność pracy w środowisku chmurowym oraz z dużymi wolumenami danych Dobre umiejętności komunikacyjne i doświadczenie we współpracy z zespołami technicznymi i biznesowymi Wszystkie informacje o przetwarzaniu danych osobowych w tej rekrutacji znajdziesz w formularzu aplikacyjnym, po kliknięciu w przycisk "Aplikuj Teraz".