Poszukujemy osoby, która będzie odpowiedzialna za projektowanie i rozwój nowoczesnych rozwiązań przetwarzania danych w środowiskach chmurowych. Osoba na tym stanowisku będzie współtworzyć architekturę platform danych, wspierać zespoły projektowe w zakresie integracji systemów oraz projektować skalowalne rozwiązania oparte na podejściu data-driven i architekturze zdarzeniowej.
Wymagania / Kompetencje
• znajomość aspektów związanych z budową pipeline-ów zasilających ETL/ELT
• doświadczenie w budowaniu i projektowaniu rozwiązań Data Lake i DWH
• znajomość technologii wykorzystywanych w ramach architektury sterowanej zdarzeniami takich jak np. Kafka, Pub/Sub
• znajomość aspektów związanych z budową rozwiązań BigData wykorzystujących możliwości GenAI • znajomość Google BigQuery
• znajomość Kubernetes (najlepiej Google Kubernetes Engine i OpenShift)
• znajomość relacyjnych baz danych Oracle i PostgreSQL (projektowanie, budowa i tuning baz danych),
• biegle znasz języki programowania Python i/lub Rust • dobrze znasz Apache AirFlow
Mile widziana znajomość:
• koncepcji data mesh
• baz wektorowych i grafowych
• Apache Spark - najlepiej GCP Data Proc
• Apache Beam – najlepiej GCP DataFlow
• AutomateNow
• Informatica Power Center