Dołączysz do zespołu inżynierii danych, który rozwija skalowalne rozwiązania analityczne w chmurze Google Cloud Platform (GCP).
Zespół buduje i rozwija nowoczesne pipeline’y danych (batch i streaming) przetwarzające duże wolumeny informacji z wielu źródeł — dane te zasilają kluczowe procesy analityczne i biznesowe.
To stanowisko w 100% skoncentrowane na developmentcie – projektowanie, implementacja, optymalizacja. Żadnych zadań utrzymaniowych.
responsibilities :
Projektowanie i rozwój potoków danych (streaming / batch) w środowisku GCP.
Budowa i optymalizacja procesów przetwarzania danych w Apache Spark i Kafka.
Integracja danych z różnych źródeł oraz implementacja rozwiązań ETL / ELT.
Praca z danymi w dużej skali – transformacje, walidacja, kontrola jakości.
Udział w projektowaniu architektury danych oraz dobrych praktyk w zespole.
Współpraca z analitykami i zespołami produktowymi w dostarczaniu gotowych datasetów.
requirements-expected :
Minimum 2 lata doświadczenia jako Data Engineer lub pokrewnej roli.
Praktyczna znajomość usług Google Cloud Platform, w tym: BigQuery, Dataflow, Pub/Sub, Cloud Storage, Composer.
Doświadczenie w pracy z Apache Spark i Kafka.
Umiejętność budowy pipeline’ów danych (ETL/ELT) w środowiskach chmurowych.
Znajomość Python lub Scala w kontekście przetwarzania danych.
Dobra znajomość SQL i optymalizacji zapytań.
Doświadczenie z narzędziami CI/CD i Git.
Angielski na poziomie swobodnej komunikacji (B2+).
offered :
Realny wpływ na rozwój nowoczesnej platformy danych — od koncepcji po wdrożenie.
Praca z dużymi wolumenami danych i nowoczesnym stosem technologicznym GCP.
100% rola rozwojowa (development, nie utrzymanie).
Współpraca z międzynarodowymi zespołami i doświadczonymi inżynierami danych.