Data Architect Miejsce pracy: Warszawa Technologie, których używamy Wymagane Snowflake Azure CDC / Data Replication HA/DR SQL Server log Mile widziane Qlik Compose Terraform Great Expectations Fivetran HVR Debezium / Kafka Oracle GoldenGate O projekcie Projekt dotyczy budowy i utrzymania niezawodnej platformy danych opartej o replikację danych (CDC), hurtownię danych w chmurze oraz środowiska wysokiej dostępności. Rola ma charakter operacyjno-architektoniczny i koncentruje się na stabilności, wydajności oraz jakości danych w środowisku produkcyjnym. Osoba na tym stanowisku będzie odpowiedzialna za operacjonalizację procesów replikacji danych, zapewnienie data reliability oraz współpracę z zespołami DBA w obszarze standardów, wydajności i governance. Twój zakres obowiązków Operacjonalizacja Qlik Replicate (monitoring, alerting, SLO, runbooki, automatyzacja reakcji) Zapewnienie niezawodności danych (kontrole kompletności, reconciliations, zarządzanie incydentami) Projektowanie i utrzymanie rozwiązań HA/DR (failover, failback, testy, hardening AlwaysOn / Availability Groups) Optymalizacja wydajności i opóźnień (latency tuning, capacity planning) Koordynacja pracy zespołów DBA Ustalanie i egzekwowanie standardów technicznych (log backup, retencja, long-running transactions, indeksy pod CDC) Współpraca w obszarze priorytetów, governance i stabilności platformy danych Nasze wymagania Bardzo dobra znajomość SQL Server Internals (log, backup/truncation, AlwaysOn / Availability Groups, troubleshooting) Doświadczenie w CDC oraz replikacji danych, w tym replikacji log-based Praktyczna znajomość Qlik Replicate (projektowanie zadań, monitoring, alerting, troubleshooting opóźnień) Operacyjna znajomość Snowflake (loading, staging, podstawy wydajności i kosztów) Doświadczenie z Azure w ujęciu operacyjnym (monitoring, alerting, agregacja logów) Doświadczenie w pracy z systemami produkcyjnymi o wysokich wymaganiach niezawodności Mile widziane Qlik Compose, dbt lub inne narzędzia do modelowania hurtowni danych Alternatywne rozwiązania CDC (Debezium/Kafka, GoldenGate, Fivetran HVR) Infrastructure as Code (Terraform) Data quality frameworks (np. Great Expectations) To oferujemy Pracę przy krytycznej platformie danych o wysokiej złożoności technicznej Realny wpływ na niezawodność, jakość i wydajność danych Współpracę z doświadczonymi zespołami DBA i data engineering Rozwój kompetencji w obszarze CDC, data reliability i architektury danych Stabilny projekt w środowisku enterprise