Informacje o stanowisku
Data Engineer (GCP / Azure / Oracle DWH) – 100% zdalnie
Dla naszego Klienta poszukujemy doświadczonych Inżynierów Danych, którzy dołączą do zespołu odpowiedzialnego za rozwój skalowalnych rozwiązań w chmurze i nowoczesnych hurtowni danych w oparciu o GCP, Azure lub Oracle. Zależnie od doświadczenia i preferencji, kandydaci mogą objąć jedną z trzech ról:
GCP Data Lake Developer, Ekspert Azure Cloud DWH lub Data Engineer Oracle DWH.
Oferujemy:
- pracę w 100% zdalną,
- udział w dużych, międzynarodowych projektach Data & AI,
- możliwość wyboru technologii i ścieżki rozwoju (GCP / Azure / Oracle),
- realny wpływ na architekturę i kierunek rozwoju rozwiązań danych,
- współpracę w modelu B2B
- pakiet benefitów (LuxMed, MyBenefit).
- minimum 6 lat doświadczenia zawodowego w obszarze inżynierii danych, hurtowni danych lub rozwiązań chmurowych,
- bardzo dobra znajomość SQL i doświadczenie w pracy z dużymi zbiorami danych,
- praktyczne doświadczenie w pracy z usługami GCP: BigQuery, Databricks, Vertex AI,
- doświadczenie w pracy z Oracle Database,
- umiejętność modelowania danych i optymalizacji zapytań.
Mile widziane:
- doświadczenie w budowie i wdrażaniu modeli ML na Vertex AI,
- znajomość koncepcji Data Lake i pracy z danymi nieustrukturyzowanymi,
- doświadczenie w tworzeniu dashboardów w Power BI.
Data Engineer (GCP / Azure / Oracle DWH) – 100% zdalnie
Dla naszego Klienta poszukujemy doświadczonych Inżynierów Danych, którzy dołączą do zespołu odpowiedzialnego za rozwój skalowalnych rozwiązań w chmurze i nowoczesnych hurtowni danych w oparciu o GCP, Azure lub Oracle. Zależnie od doświadczenia i preferencji, kandydaci mogą objąć jedną z trzech ról:
GCP Data Lake Developer, Ekspert Azure Cloud DWH lub Data Engineer Oracle DWH.
Oferujemy:
- pracę w 100% zdalną,
- udział w dużych, międzynarodowych projektach Data & AI,
- możliwość wyboru technologii i ścieżki rozwoju (GCP / Azure / Oracle),
- realny wpływ na architekturę i kierunek rozwoju rozwiązań danych,
- współpracę w modelu B2B
- pakiet benefitów (LuxMed, MyBenefit).
,[projektowanie, rozwój i utrzymanie skalowalnych potoków danych (ETL/ELT) w środowiskach GCP, Azure lub Oracle,, modelowanie i optymalizacja struktur danych (BigQuery, Synapse, Oracle DWH),, integracja danych z różnych źródeł (Oracle, systemy legacy, API),, współpraca z zespołami Data Science przy wdrażaniu modeli ML (Vertex AI, Databricks),, tworzenie raportów i dashboardów w Power BI lub Tableau,, automatyzacja procesów danych i implementacja logiki biznesowej (PL/SQL, Python, Databricks),, optymalizacja wydajności zapytań i strojenie środowisk danych.projektowanie, rozwój i utrzymanie skalowalnych potoków danych (ETL/ELT) w środowiskach GCP, Azure lub Oracle,, modelowanie i optymalizacja struktur danych (BigQuery, Synapse, Oracle DWH),, integracja danych z różnych źródeł (Oracle, systemy legacy, API),, współpraca z zespołami Data Science przy wdrażaniu modeli ML (Vertex AI, Databricks),, tworzenie raportów i dashboardów w Power BI lub Tableau,, automatyzacja procesów danych i implementacja logiki biznesowej (PL/SQL, Python, Databricks),, optymalizacja wydajności zapytań i strojenie środowisk danych. Requirements: SQL, GCP, BigQuery, Databricks, Vertex AI, Oracle database, Data Lake, Power BI
Praca WrocławWrocław - Oferty pracy w okolicznych lokalizacjach