Dołącz do międzynarodowego projektu realizowanego w obszarze platform danych i rozwiązań AI, którego celem jest migracja środowiska danych z infrastruktury on-premise do Google Cloud Platform. Projekt obejmuje transformację istniejącej platformy opartej o technologie Hadoop do nowoczesnej, chmurowej architektury danych.
Requirements
Nice-to-have requirements
Dołącz do międzynarodowego projektu realizowanego w obszarze platform danych i rozwiązań AI, którego celem jest migracja środowiska danych z infrastruktury on-premise do Google Cloud Platform. Projekt obejmuje transformację istniejącej platformy opartej o technologie Hadoop do nowoczesnej, chmurowej architektury danych.
,[Udział w migracji platformy danych z środowiska on-premise do Google Cloud Platform, Analiza istniejących rozwiązań legacy oraz rekomendowanie docelowej architektury danych w chmurze, Projektowanie i implementacja pipeline’ów danych (batch i streaming) w środowisku produkcyjnym, Praca z usługami GCP, w szczególności Dataproc, Dataflow, BigQuery, Cloud Composer, Automatyzacja procesów przetwarzania danych oraz orkiestracja workflow, Współpraca z zespołami międzynarodowymi oraz zewnętrznym partnerem technologicznym, Udział w warsztatach technicznych, przeglądach architektury i pracach koncepcyjnych, Zapewnienie skalowalności, bezpieczeństwa oraz efektywności kosztowej rozwiązań Requirements: GCP, Python, Java, Apache Spark, BigQuery, CI/CD, Apache Beam, Apache Airflow, Cloudera, Apache Hadoop Additionally: Sport subscription, Training budget, Private healthcare, Small teams, International projects, Free coffee, Modern office, Free breakfast, No dress code, In-house trainings.