Informacje o stanowisku
- Miejsce pracy: głównie zdalnie (wizyty w biurze w Warszawie 1x w miesiącu, czasem rzadziej)
- Start: ASAP (max. 1 miesiąc wypowiedzenia)
- Współpraca: B2B z ITFS
- Wynagrodzenie: 140-175 zł/h + VAT (bez płatnych urlopów)
- Branża: żywnościowa
- Projekt: obszar giełdowy, dział ryzyka, migracja hurtowni danych Oracle
- Proces rekrutacyjny: krótka rozmowa z ITFS (ok. 15 min) ➡ 2 rozmowy miękko-techniczne z Klientem ➡ decyzja
- Min. 5 lat doświadczenia zawodowego z Oracle PL/SQL, w tym procedur składowanych, funkcji, pakietów i triggerów
- Wykształcenie wyższe informatyczne lub pokrewne
- Min. 2-3 lata doświadczenia z GCP BigQuery i Dataform (modelowanie danych, optymalizacja zapytań, manipulacja danymi) – najbardziej preferowane; dopuszczalne doświadczenie z Azure/AWS
- Praktyka z systemami kontroli wersji Git/Bitbucket/Azure Repos
- Doświadczenie w pracy z hurtowniami danych i procesami ETL
- Umiejętność integracji różnych źródeł danych
- Dobra znajomość analitycznych funkcji Oracle
- Znajomość j. angielskiego na poziomie B2+
Mile widziane
- Znajomość Tableau
- Doświadczenie z SAP i SAP BW
- Podstawowa wiedza o frameworku Agile
- Miejsce pracy: głównie zdalnie (wizyty w biurze w Warszawie 1x w miesiącu, czasem rzadziej)
- Start: ASAP (max. 1 miesiąc wypowiedzenia)
- Współpraca: B2B z ITFS
- Wynagrodzenie: 140-175 zł/h + VAT (bez płatnych urlopów)
- Branża: żywnościowa
- Projekt: obszar giełdowy, dział ryzyka, migracja hurtowni danych Oracle
- Proces rekrutacyjny: krótka rozmowa z ITFS (ok. 15 min) ➡ 2 rozmowy miękko-techniczne z Klientem ➡ decyzja
,[Implementacja nowych funkcjonalności i logiki zgodnie z wymaganiami biznesowymi w środowisku Google Cloud Platform (głównie BigQuery i Dataform), Praca z relacyjnymi i wielowymiarowymi bazami danych, Udział w dopasowywaniu i skalowaniu rozwiązań, diagnozowaniu problemów, optymalizacji kodu i kontrolach jakości po wdrożeniu, z naciskiem na wydajność, efektywność zasobów i optymalizację kosztów w GCP, Rozwój i optymalizacja procesów transformacji i ładowania danych, Migracja i modernizacja istniejących struktur danych Oracle do BigQuery z wykorzystaniem natywnych funkcji chmurowych, Skuteczne wykorzystanie standardowych komponentów pipeline firmy, proponowanie dostosowań i najlepszych praktyk w metodach data engineering, Współpraca z zespołami integracji oraz data & analytics w celu zapewnienia i utrzymania zautomatyzowanej linii danych podczas migracji, Zapewnienie zgodności z regulacjami prywatności i bezpieczeństwa danych; integracja standardów bezpieczeństwa firmy z środowiskiem GCP, Współpraca z zespołami wielofunkcyjnymi, analitykami danych i interesariuszami biznesowymi w celu zrozumienia i doprecyzowania wymagań danych, Mentoring młodszych członków zespołu Requirements: Oracle, PL/SQL, Cloud, ETL, Git, Tableau, SAP BW Additionally: Sport subscription, Private healthcare.
Praca WarszawaWarszawa - Oferty pracy w okolicznych lokalizacjach