.
Data Platform Engineer
  • Warszawa
Data Platform Engineer
Warszawa, Warszawa, mazowieckie, Polska
Square One Resources Sp. z o.o.
6. 3. 2026
Informacje o stanowisku

Stanowisko związane z rozwojem i budową Platformy Danych, implementacją rozwiązań „Data Lakehouse” oraz „Data Intelligence Platform”, a także kontrolą jakości danych i wdrażaniem najlepszych praktyk w obszarze data management oraz data governance.

Data Platform Engineer



Twój zakres obowiązków

  • Tworzenie kodu oprogramowania gotowego do zaimplementowania w Platformie Danych, w szczególności w zakresie tworzenia struktur danych, przepływów przekształcania danych oraz monitoringu ich jakości.
  • Optymalizacja skryptów SQL oraz Python w zakresie efektywności przetwarzania w środowisku chmurowym Platformy Danych.
  • Ścisła współpraca z analitykami danych, inżynierami DevOps oraz architektem rozwiązania w procesie zmian i budowy Platformy Danych.
  • Realizacja wymagań funkcjonalnych i niefunkcjonalnych w obszarze zmian przepływów danych.
  • Implementacja rozwiązań w obszarze inżynierii danych specyficznych dla produktów klasy „Data Lakehouse” oraz „Data Intelligence Platform”.
  • Definiowanie reguł oraz budowa narzędzi wspomagających proces kontroli jakości danych gromadzonych w Platformie Danych.
  • Rozwój i wdrażanie procesów i najlepszych praktyk w obszarze data management oraz data governance.
  • Współpraca z administratorami systemów informatycznych w zakresie identyfikowania oraz tworzenia architektury optymalnych interfejsów komunikacji z Platformą Danych w środowisku chmurowym.
  • Identyfikacja, integracja, propagowanie oraz konfiguracja interfejsów wymiany danych referencyjnych pomiędzy Platformą Danych a systemami źródłowymi.

Nasze wymagania

  • Doświadczenie na stanowiskach inżyniera danych, programisty hurtowni danych, analityka danych, dewelopera business intelligence lub pokrewne.
  • Doświadczenie w pracy z projektami obejmującymi wdrożenie lub zmiany Hurtowni Danych, Platform Danych, Lakehouses.
  • Doświadczenie w pracy z dokumentacją: source to target matrix, business requirements, business glossary.
  • Udział w złożonych projektach w obszarze „data” polegających na integracji wielu źródeł danych.
  • Optymalizacja kodu SQL oraz Python z wykorzystaniem modeli AI.
  • Doświadczenie w testach odbiorczych z kluczowymi interesariuszami w organizacji.
  • Doświadczenie w pracy zespołowej w środowisku Agile.
  • Zaawansowana umiejętność posługiwania się językiem ANSI-SQL.
  • Zaawansowana umiejętność posługiwania się językiem Python.
  • Bardzo dobre zdolności komunikacyjne, łatwość w nawiązywaniu relacji biznesowych w środowisku zdalnym.
  • Wiedza i praktyczna znajomość standardów zarządzania zmianą CI/CD.
  • Dokładność i przedsiębiorcza postawa w realizacji powierzonych zadań.
  • Praktyczna znajomość technologii Azure Databricks Lakehouse.
  • Doświadczenie w wykorzystaniu dostępnych Databricks connectors na potrzeby integracji źródeł systemowych.
  • Umiejętność projektowania modeli danych, w tym star i snowflake schemas, dla efektywnej analizy danych.
  • Umiejętność tworzenia od podstaw oraz orkiestracji złożonych przepływów danych w architekturze medalionu w rozwiązaniach klasy Enterprise Data Platform.
  • Znajomość technik optymalizacji wydajności hurtowni danych, takich jak indeksowanie, partycjonowanie i buforowanie.
  • Monitorowanie nowych technologii i trendów w zakresie hurtowni danych i proponowanie ich wdrożenia w celu optymalizacji platformy.
  • Angielski B2/C1.

 

  • Praca Warszawa
  • Warszawa - Oferty pracy w okolicznych lokalizacjach


    118 102
    19 278