Informacje o stanowisku
RITS Group to firma informatyczna, która oferuje najwyższej jakości usługi programistyczne zarówno dla rynku polskiego, jak i międzynarodowego. Jesteśmy dumni, że należymy do grona najszybciej rozwijających się spółek technologicznych. Naszym priorytetem jest jakość oraz innowacyjność dostarczanych rozwiązań, a nasza kultura organizacyjna opiera się na zaufaniu, współpracy i ciągłym doskonaleniu.
Praca hybrydowa z Warszawy 1 raz w tygodniu
Budżet do 190 zł/g netto + VAT
Opis projektu:
Budujemy i rozwijamy platformę danych opartą o Data Lake i DWH, obsługującą zarówno procesy on-line, jak i off-line. Pracujemy w architekturze sterowanej zdarzeniami, projektujemy skalowalne pipeline’y danych oraz integrujemy rozwiązania Big Data i GenAI w chmurze GCP.
- doświadczenie w budowie pipeline’ów zasilających ETL/ELT,
- praktyczne doświadczenie w projektowaniu rozwiązań Data Lake i DWH,
- znajomość architektury zdarzeniowej (Kafka, Pub/Sub),
- doświadczenie w rozwiązaniach Big Data z wykorzystaniem GenAI,
- bardzo dobra znajomość Google BigQuery,
- znajomość Kubernetes (preferowane GKE i/lub OpenShift),
- dobra znajomość Oracle i PostgreSQL (projektowanie, tuning),
- biegła znajomość Python i/lub Rust,
- bardzo dobra znajomość Apache Airflow.
Mile widziane:
- znajomość koncepcji Data Mesh,
- doświadczenie z bazami wektorowymi i grafowymi,
- Apache Spark (preferowane GCP DataProc),
- Apache Beam (preferowane GCP DataFlow),
- AutomateNow,
- Informatica Power Center.
RITS Group to firma informatyczna, która oferuje najwyższej jakości usługi programistyczne zarówno dla rynku polskiego, jak i międzynarodowego. Jesteśmy dumni, że należymy do grona najszybciej rozwijających się spółek technologicznych. Naszym priorytetem jest jakość oraz innowacyjność dostarczanych rozwiązań, a nasza kultura organizacyjna opiera się na zaufaniu, współpracy i ciągłym doskonaleniu.
Praca hybrydowa z Warszawy 1 raz w tygodniu
Budżet do 190 zł/g netto + VAT
Opis projektu:
Budujemy i rozwijamy platformę danych opartą o Data Lake i DWH, obsługującą zarówno procesy on-line, jak i off-line. Pracujemy w architekturze sterowanej zdarzeniami, projektujemy skalowalne pipeline’y danych oraz integrujemy rozwiązania Big Data i GenAI w chmurze GCP.
,[projektowanie i rozwój pipeline’ów ETL/ELT,, budowa i utrzymanie rozwiązań Data Lake i DWH,, implementacja procesów przetwarzania danych w architekturze zdarzeniowej (Kafka, Pub/Sub),, praca z Google BigQuery – projektowanie struktur, optymalizacja i tuning,, tworzenie i utrzymanie workflowów w Apache Airflow,, rozwój rozwiązań Big Data z wykorzystaniem GenAI (w tym dane niestrukturalne),, praca z relacyjnymi bazami danych Oracle i PostgreSQL (projektowanie, tuning),, rozwój i utrzymanie komponentów uruchamianych na Kubernetes (GKE / OpenShift),, programowanie w Python i/lub Rust. Requirements: Python, ETL/ELT, Data Lake, DWH, Kafka, Pub/Sub, Bid Data, GenAI, Google BigQuery, Kubernetes, Oracle, PostgreSQL, Rust, Apache Airflow, Data Mesh, Apache Spark, Apache Beam, AutomateNow, Informatica PowerCenter
Praca WarszawaArchitekt WarszawaArchitekt krajobrazu WarszawaArchitekt wnętrz WarszawaWarszawa - Oferty pracy w okolicznych lokalizacjach