Informacje o stanowisku
W PKO Banku Polskim sami tworzymy, rozwijamy oraz zabezpieczamy nasze systemy i produkty. Z rozmachem korzystamy z innowacyjnych rozwiązań oraz nowoczesnych technologii. Z sukcesem wdrożyliśmy blockchain i sztuczną inteligencję. To nie wszystko! Wspieramy startupy w ich drodze do sukcesu! Od lat wyznaczamy standardy na rynku polskiej bankowości. Aby utrzymać pozycję lidera, zatrudniamy najlepszych specjalistów i ekspertów. Dołącz do nas, żeby wspólnie tworzyć PKO Bank Przyszłości.okres próbny
IT
Na co dzień w naszym zespole:
- budujemy procesy zasilania operacyjnej składnicy danych zarówno on-line jak i off-line,
- projektujemy i realizujemy rozwiązania informatyczne w obszarze zasilania danych,
- analizujemy dane oraz przygotowujemy dla nich modele logiczne i fizyczne,
- stroimy zapytania SQL na bazach relacyjnych, hurtowianych w on-prem i na Chmurze GCP,
- tworzymy przepływy off-linowe zarówno w narzędziach on-prem jak i GCP,
- tworzymy rozwiązania ładowania danych w Python,
- tworzymy przepływy strumieniowowe danych,
- przygotowujemy datamarty tematyczne na bazach relacyjnych i kolumnowych,
- tworzymy koncepcje rozwiązań i implementacje rozwiązań w oparciu o wymagania i potrzeby biznesu,
- usuwamy incydenty i bierzemy udział w rozwiązywaniu problemów,
- wspieramy testy i wdrażania zmian w zakresie procesów zasilania danych,
- pomagamy przy serwisowaniu wdrożonego oprogramowania,
- pracujemy zgodnie z modelem DevOps.
To stanowisko może być Twoje, jeśli:
- masz minimum 5 lat doświadczenia jako Developer ETL w obszarze procesów integracji danych na on-prem, w szczególności oczekujemy:
- eksperckiej znajomości relacyjnych baz danych Oracle, PostgeSQL (projektowanie, budowa i tiuning baz danych),
- znajomości narzędzi ETL na on-prem na poziomie zaawansowanym (Informatic Power Center),
- bardzo dobrej znajomości narzędzi harmonogramujących,
- umiejętności wystawiania usług Rest API,
- masz minimum 3 lata doświadczenia jako Data Engineer GCP w obszarze procesów integracji danych na GCP, w tym:
- dobrej znajomości baz danych GCP - GCP Big Query, GCP Big Table, Scylla Cloud (projektowanie, budowa i tiuning baz danych),
- dobrej znajomości narzędzi ETL Flow na GCP (Apache AirFlow , GCP Data Flow, GCP Data Proc),
- znajomości Pythona/ PySparka na poziomie potrzebnym do pracy z danymi,
- umiesz programować w językach: Rust i/lub Java - mile widziane.
Praca mazowieckiemazowieckie - Oferty pracy w okolicznych lokalizacjach