.
ETL / Data Engineer
  • Warszawa, Chmielna 89
ETL / Data Engineer
mazowieckie, Warszawa, Chmielna 89, mazowieckie, Polska
PKO Bank Polski
6. 3. 2025
Informacje o stanowisku

W PKO Banku Polskim sami tworzymy, rozwijamy oraz zabezpieczamy nasze systemy i produkty. Z rozmachem korzystamy z innowacyjnych rozwiązań oraz nowoczesnych technologii. Z sukcesem wdrożyliśmy blockchain i sztuczną inteligencję. To nie wszystko! Wspieramy startupy w ich drodze do sukcesu! Od lat wyznaczamy standardy na rynku polskiej bankowości. Aby utrzymać pozycję lidera, zatrudniamy najlepszych specjalistów i ekspertów. Dołącz do nas, żeby wspólnie tworzyć PKO Bank Przyszłości.okres próbny

IT







Na co dzień w naszym zespole:







  • budujemy procesy zasilania operacyjnej składnicy danych zarówno on-line jak i off-line,
  • projektujemy i realizujemy rozwiązania informatyczne w obszarze zasilania danych,
  • analizujemy dane oraz przygotowujemy dla nich modele logiczne i fizyczne,
  • stroimy zapytania SQL na bazach relacyjnych, hurtowianych w on-prem i na Chmurze GCP,
  • tworzymy przepływy off-linowe zarówno w narzędziach on-prem jak i GCP,
  • tworzymy rozwiązania ładowania danych w Python,
  • tworzymy przepływy strumieniowowe danych,
  • przygotowujemy datamarty tematyczne na bazach relacyjnych i kolumnowych,
  • tworzymy koncepcje rozwiązań i implementacje rozwiązań w oparciu o wymagania i potrzeby biznesu,
  • usuwamy incydenty i bierzemy udział w rozwiązywaniu problemów,
  • wspieramy testy i wdrażania zmian w zakresie procesów zasilania danych,
  • pomagamy przy serwisowaniu wdrożonego oprogramowania,
  • pracujemy zgodnie z modelem DevOps.












To stanowisko może być Twoje, jeśli:







  • masz minimum 5 lat doświadczenia jako Developer ETL w obszarze procesów integracji danych na on-prem, w szczególności oczekujemy:




  • eksperckiej znajomości relacyjnych baz danych Oracle, PostgeSQL (projektowanie, budowa i tiuning baz danych),

    • znajomości narzędzi ETL na on-prem na poziomie zaawansowanym (Informatic Power Center),
    • bardzo dobrej znajomości narzędzi harmonogramujących,
    • umiejętności wystawiania usług Rest API,








  • masz minimum 3 lata doświadczenia jako Data Engineer GCP w obszarze procesów integracji danych na GCP, w tym:




  • dobrej znajomości baz danych GCP - GCP Big Query, GCP Big Table, Scylla Cloud (projektowanie, budowa i tiuning baz danych),

    • dobrej znajomości narzędzi ETL Flow na GCP (Apache AirFlow , GCP Data Flow, GCP Data Proc),
    • znajomości Pythona/ PySparka na poziomie potrzebnym do pracy z danymi,








  • umiesz programować w językach: Rust i/lub Java - mile widziane. 








  • Praca mazowieckie
  • mazowieckie - Oferty pracy w okolicznych lokalizacjach


    74 258
    6 906