Wrocław, Wrocław, Lower Silesian Voivodeship, Polska
Impel S.A.
9. 2. 2025
Informacje o stanowisku
technologies-expected :
SQL
Docker
Kubernetes
about-project :
Poszukujemy doświadczonego Data Engineera, który będzie odpowiedzialny za projektowanie, rozwój oraz utrzymanie rozwiązań przetwarzania danych w oparciu o Google Cloud Platform (GCP). Osoba na tym stanowisku będzie ściśle współpracować z zespołem analitycznym, programistami oraz interesariuszami biznesowymi, aby dostarczać efektywne, skalowalne i bezpieczne rozwiązania umożliwiające optymalną analizę i wykorzystanie danych.
responsibilities :
Projektowanie i implementacja przepływów danych (ETL/ELT) w GCP
Wykorzystanie usług takich jak Dataflow, Pub/Sub, BigQuery, Dataproc, Composer
Zapewnianie skalowalności, bezpieczeństwa i wydajności rozwiązań
Tworzenie i optymalizacja zapytań SQL
Odpowiedzialność za efektywną analizę i integrację danych
Monitorowanie i poprawa wydajności zapytań
Programowanie w języku Python
Automatyzacja procesów przetwarzania danych, integracja z zewnętrznymi systemami
Tworzenie narzędzi wspierających pracę zespołu, testowanie kodu i utrzymanie wysokiej jakości rozwiązań
Implementacja przetwarzania wsadowego i/lub w czasie rzeczywistym
Korzystanie z usług GCP (Dataproc, Composer, Cloud Functions) w zależności od potrzeb projektowych
Projektowanie architektur przetwarzania danych dostosowanych do konkretnych wymagań biznesowych
Zapewnianie jakości danych (Data Quality)
Monitorowanie procesów, szybkie wykrywanie i rozwiązywanie problemów związanych z wydajnością oraz niezawodnością
Stosowanie najlepszych praktyk w zakresie walidacji i kontroli jakości danych
Współpraca z zespołami Data Science / BI
Przygotowywanie i dostarczanie danych do celów analitycznych
Udział w tworzeniu hurtowni danych oraz innych repozytoriów (Data Lake)
Tworzenie i utrzymywanie dokumentacji technicznej
Dokumentowanie rozwiązań, architektury i procesów przetwarzania danych
Dbanie o przejrzystość i aktualność informacji technicznych dla zespołu
Optymalizacja kosztów i bezpieczeństwa w GCP
Analiza wykorzystania zasobów chmurowych w celu ograniczenia kosztów
Dbanie o odpowiednie zabezpieczenia (IAM, VPC, szyfrowanie danych)
requirements-expected :
Ukończone studia wyższe (preferowane kierunki: Informatyka, Matematyka, Statystyka, Fizyka lub pokrewne)
Minimum 2-3 lata na stanowisku Data Engineera lub pokrewnym
Praktyczne doświadczenie w pracy z usługami takimi jak BigQuery, Dataflow, Pub/Sub, Dataproc, Composer
Zaawansowane pisanie i optymalizacja zapytań SQL w celu analizy i integracji danych
Tworzenie skryptów, automatyzacja procesów, testowanie kodu
Doświadczenie w projektowaniu i utrzymywaniu procesów ETL/ELT, najlepiej z wykorzystaniem narzędzi GCP lub rozwiązań open source (np. Airflow)
Wersjonowanie, testowanie, CI/CD, monitoring, a także zrozumienie architektury danych (hurtownie, Data Lake)
Doświadczenie w pobieraniu i przetwarzaniu danych z różnych źródeł, w tym REST API, SOAP, GraphQL lub innych usług zewnętrznych
Projektowanie skalowalnych i niezawodnych mechanizmów integracji danych
Umiejętność współpracy w zespole, komunikatywność, inicjatywa w rozwiązywaniu problemów
Doświadczenie w analizie danych i/lub Data Science
Znajomość narzędzi DevOps, Dockera, Kubernetes (lub innych platform konteneryzacyjnych)
offered :
Współpracę w oparciu o kontrakt menadżerski/B2B lub umowę o pracę
Pracę w wybranym trybie: stacjonarnym/ hybrydowym
Pracę w stabilnej firmie, u lidera w zakresie usług outsourcingowych
Przyjazne środowisko pracy pełne wyzwań i ambitnych zadań
Możliwość współpracy z ekspertami w swojej dziedzinie
Dostęp do platformy e-learningowej
Dodatkowe benefity (możliwość przystąpienia do programy Multisport, ubezpieczenia grupowego lub prywatnej opieki medycznej)
benefits :
parking dla pracowników
inicjatywy dobroczynne
pakiet ubezpieczeń na preferencyjnych warunkach
karta Multisport na preferencyjnych warunkach
szkolenia na platformie e-learningowej
ubezpieczenie medyczne na preferencyjnych warunkach