Informacje o stanowisku
Data Engineer (GCP / Azure / Oracle DWH) – 100% zdalnie
Dla naszego Klienta poszukujemy doświadczonych Inżynierów Danych, którzy dołączą do zespołu odpowiedzialnego za rozwój skalowalnych rozwiązań w chmurze i nowoczesnych hurtowni danych w oparciu o GCP, Azure lub Oracle. Zależnie od doświadczenia i preferencji, kandydaci mogą objąć jedną z trzech ról:
GCP Data Lake Developer, Ekspert Azure Cloud DWH lub Data Engineer Oracle DWH.
Oferujemy:
- pracę w 100% zdalną,
- udział w dużych, międzynarodowych projektach Data & AI,
- możliwość wyboru technologii i ścieżki rozwoju (GCP / Azure / Oracle),
- realny wpływ na architekturę i kierunek rozwoju rozwiązań danych,
- współpracę w modelu B2B
- pakiet benefitów (LuxMed, MyBenefit).
- minimum 6 lat doświadczenia zawodowego w obszarze inżynierii danych, hurtowni danych lub rozwiązań chmurowych,
- bardzo dobra znajomość SQL i doświadczenie w pracy z dużymi zbiorami danych,
- eksperckie umiejętności w SQL, Azure Synapse, Azure Data Factory, Databricks,
- doświadczenie w integracji danych z Oracle i systemów legacy,
- znajomość języka niemieckiego na poziomie min. A2.
Mile widziane:
- znajomość Power BI i budowy dashboardów,
- doświadczenie z Delta Lake i optymalizacją Spark.
Data Engineer (GCP / Azure / Oracle DWH) – 100% zdalnie
Dla naszego Klienta poszukujemy doświadczonych Inżynierów Danych, którzy dołączą do zespołu odpowiedzialnego za rozwój skalowalnych rozwiązań w chmurze i nowoczesnych hurtowni danych w oparciu o GCP, Azure lub Oracle. Zależnie od doświadczenia i preferencji, kandydaci mogą objąć jedną z trzech ról:
GCP Data Lake Developer, Ekspert Azure Cloud DWH lub Data Engineer Oracle DWH.
Oferujemy:
- pracę w 100% zdalną,
- udział w dużych, międzynarodowych projektach Data & AI,
- możliwość wyboru technologii i ścieżki rozwoju (GCP / Azure / Oracle),
- realny wpływ na architekturę i kierunek rozwoju rozwiązań danych,
- współpracę w modelu B2B
- pakiet benefitów (LuxMed, MyBenefit).
,[projektowanie, rozwój i utrzymanie skalowalnych potoków danych (ETL/ELT) w środowiskach GCP, Azure lub Oracle,, modelowanie i optymalizacja struktur danych (BigQuery, Synapse, Oracle DWH),, integracja danych z różnych źródeł (Oracle, systemy legacy, API),, współpraca z zespołami Data Science przy wdrażaniu modeli ML (Vertex AI, Databricks),, tworzenie raportów i dashboardów w Power BI lub Tableau,, automatyzacja procesów danych i implementacja logiki biznesowej (PL/SQL, Python, Databricks),, optymalizacja wydajności zapytań i strojenie środowisk danych.projektowanie, rozwój i utrzymanie skalowalnych potoków danych (ETL/ELT) w środowiskach GCP, Azure lub Oracle,, modelowanie i optymalizacja struktur danych (BigQuery, Synapse, Oracle DWH),, integracja danych z różnych źródeł (Oracle, systemy legacy, API),, współpraca z zespołami Data Science przy wdrażaniu modeli ML (Vertex AI, Databricks),, tworzenie raportów i dashboardów w Power BI lub Tableau,, automatyzacja procesów danych i implementacja logiki biznesowej (PL/SQL, Python, Databricks),, optymalizacja wydajności zapytań i strojenie środowisk danych. Requirements: SQL, Azure Synapse, Azure Data Factory, Databricks, Oracle, Power BI, Spark, Delta Lake
Praca WrocławWrocław - Oferty pracy w okolicznych lokalizacjach