Dietly to największy w Polsce marketplace dla cateringów dietetycznych, będący częścią Grupy Żabka. Działamy na styku technologii, logistyki i zdrowego stylu życia – łącząc świat SaaS, e-commerce, logistyki i foodtech w jeden, spójny ekosystem.
Jako jeden z nielicznych graczy w Europie rozwijamy model „SaaS-enabled Marketplace”, w którym nasi partnerzy – ponad 300 zakładów produkujących żywność – korzystają z naszego systemu SaaS (MasterLife) do zarządzania produkcją, sprzedażą i obsługą klientów.
Dietly to jednak nie tylko oprogramowanie. To również gotowe sklepy e-commerce dla cateringów oraz zintegrowana logistyka D2C, pozwalająca na dostarczenie posiłków w mniej niż 24 godziny od momentu ich przygotowania. Każdego dnia dzięki naszym rozwiązaniom realizowanych jest ponad 100 tysięcy dostaw, a nasz zespół ponad 140 specjalistów pracuje nad tym, by ten złożony ekosystem działał niezawodnie – od pierwszej linijki kodu po zbilansowany posiłek pod Twoimi drzwiami.
responsibilities :
Wierzymy, że dane to paliwo, które napędza nasz wzrost. Jako Data Engineer będziesz "mostem" między surowymi bazami danych a światem analityki. Twoje zadania będą obejmować:
Tworzenie oraz utrzymanie potoków danych (ETL/ELT), które zasilają nasze procesy decyzyjne.
Skracanie czasu dostarczania danych dla zespołu Data Analyst, aby mogli szybciej wyciągać wnioski.
Przekształcanie rozproszonych informacji w uporządkowane struktury danych, gotowe do natychmiastowej analizy
Automatyzację, która zastąpi manualne procesy nowoczesnymi rozwiązaniami.
Projektowanie logicznych i uporządkowanych struktur danych w hurtowni (BigQuery).
Pomoc przy technicznych update’ach baz danych i obsługa requestów spływających z marketingu, produktu, sprzedaży.
requirements-expected :
Minimum 2-3 lata doświadczenia w obszarze danych jako Data Engineer lub ponad 5 w innym obszarze związanym silnie z danymi (np. Data Analyst, Backend Developer, Database Administrator).
Bardzo dobra znajomość SQL & Python
Doświadczenie w pracy z rozwiązaniami chmurowymi (AWS/GCP), ze szczególnym uwzględnieniem BigQuery (to nasz główny target).
ETL/ELT: Praktyczna umiejętność tworzenia data pipelines – wyciąganie danych z różnych źródeł i ładowanie ich do hurtowni.
Znajomość narzędzi takich jak Dagster, Airflow, Prefect lub podobnych.
Doświadczenie z przekształcaniem i modelowaniem danych w celach analitycznych w hurtowni danych (preferowalnie z wykorzystaniem dbt Core lub podobnymi narzędziami).
Język angielski: Poziom min. B2 (praca z dokumentacją i narzędziami).
Narzędzia, z którymi będziesz pracować:
Źródła: PostgreSQL, MySQL, MongoDB, API, S3 (Parquet), Google Sheets.
Okres wdrożeniowy – zadbamy o Twoje wprowadzenie do naszych systemów i procesów, byś poczuł/a się pewnie w swojej roli.
Płatna przerwa w świadczeniu usług oraz elastyczny czas pracy, żeby załatwić swoje sprawy, czy to w urzędzie, czy u dentysty - rozumiemy, że życie potrafi być nieprzewidywalne. :)
Praca hybrydowa (2 dni w biurze, 3 dni zdalnie) - jeśli jesteś z Trójmiasta lub całkowicie zdalna jeśli jesteś z innej części Polski!
Preferencyjne stawki karty Multisport i opieki medycznej LUXMED.
Możliwość udziału w wolontariacie firmowym lub indywidualnym.