Informacje o stanowisku
Wymagania
- znajomość aspektów związanych z budową pipeline-ów zasilających ETL/ELT
- doświadczenie w budowaniu i projektowaniu rozwiązań Data Lake i DWH
- znajomość technologii wykorzystywanych w ramach architektury sterowanej zdarzeniami takich jak np. Kafka, Pub/Sub
- znajomość aspektów związanych z budową rozwiązań BigData wykorzystujących możliwości GenAI
- znajomość Google BigQuery
- znajomość Kubernetes (najlepiej Google Kubernetes Engine i OpenShift)
- znajomość relacyjnych baz danych Oracle i PostgreSQL (projektowanie, budowa i tuning baz danych)
- biegle znasz języki programowania Python i/lub Rust
- dobrze znasz Apache AirFlow
Mile widziana znajomość:
- koncepcji data mesh
- baz wektorowych i grafowych
- Apache Spark - najlepiej GCP Data Proc
- Apache Beam – najlepiej GCP DataFlow
- AutomateNow
- Informatica Power Center
,[ Requirements: ETL, Data Lake, Kafka, PUB, BigData, Google BigQuery, OpenShift, Oracle, PostgreSQL, Python, Rust, Apache Airflow, Apache Spark, GCP, Apache Beam, Informatica
Praca WarszawaArchitekt WarszawaArchitekt krajobrazu WarszawaArchitekt wnętrz WarszawaWarszawa - Oferty pracy w okolicznych lokalizacjach