.
Senior Big Data Developer (Spark/Scala) @ Scalo
  • Warsaw
Senior Big Data Developer (Spark/Scala) @ Scalo
Warszawa, Warsaw, Masovian Voivodeship, Polska
Scalo
6. 2. 2025
Informacje o stanowisku

Uczestnictwo w rozwojowym, międzynarodowym projekcie, który dotyczy branży bankowej.

Wykorzystywany stos technologiczny w projekcie: Spark, Scala, Hadoop, Hive, PostgreSQL, SQL, Azure Databricks, Git, GitHub, Jenkins, Sonar, Nexus, Jira, CI/CD, TDD.

Co dla Ciebie mamy:

  • długofalową współpracę - różnorodne projekty (działamy w ramach Software Services, Embedded Services, Data Services, Cloud Services),
  • możliwość rozwoju kompetencji we współpracy z naszym Center of Excellence,
  • dostęp do technologicznej platformy e-learningowej - Udemy,
  • kursy języka angielskiego - biznesowego lub angielskiego w IT,
  • kafeteryjny system benefitów – Motivizer,
  • prywatną opiekę medyczną – Luxmed,
  • możliwość wystąpień na naszych autorskich eventach IT- ProMEET.

Praca w modelu hybrydowym: 2x na 2 tygodnie w biurze w Warszawie.

Brzmi interesująco? Aplikuj – czekamy na Twoje CV! 


Ta oferta jest dla Ciebie, jeśli:

  • masz minimum 3-letnie doświadczenie w roli Data Developera,
  • bardzo dobrze znasz Spark i Scala,
  • posiadasz doświadczenie w pracy z dużymi wolumenami danych z wykorzystaniem technologii Hadoop, Hive,
  • masz doświadczenie z Azure Databricks,
  • wykorzystujesz dobre praktyki w pisaniu kodu (clean code, wzorce projektowe, TDD),
  • masz doświadczenie w pracy z CI/CD oraz narzędziami: Git, GitHub, Jenkins, Sonar, Nexus, Jira,
  • pracowałeś/aś z różnymi strukturami baz danych,
  • posiadasz specjalistyczną wiedzę w zakresie integracji danych i zarządzania nimi,
  • wykazujesz się bardzo dobrą znajomością języka angielskiego na poziomie co najmniej B2+ (codzienna współpraca z międzynarodowym zespołem).

Uczestnictwo w rozwojowym, międzynarodowym projekcie, który dotyczy branży bankowej.

Wykorzystywany stos technologiczny w projekcie: Spark, Scala, Hadoop, Hive, PostgreSQL, SQL, Azure Databricks, Git, GitHub, Jenkins, Sonar, Nexus, Jira, CI/CD, TDD.

Co dla Ciebie mamy:

  • długofalową współpracę - różnorodne projekty (działamy w ramach Software Services, Embedded Services, Data Services, Cloud Services),
  • możliwość rozwoju kompetencji we współpracy z naszym Center of Excellence,
  • dostęp do technologicznej platformy e-learningowej - Udemy,
  • kursy języka angielskiego - biznesowego lub angielskiego w IT,
  • kafeteryjny system benefitów – Motivizer,
  • prywatną opiekę medyczną – Luxmed,
  • możliwość wystąpień na naszych autorskich eventach IT- ProMEET.

Praca w modelu hybrydowym: 2x na 2 tygodnie w biurze w Warszawie.

Brzmi interesująco? Aplikuj – czekamy na Twoje CV! 

,[Projektowanie i wdrażanie procesów E2E na danych (ETL) z wykorzystaniem Spark i technologii Big Data, Transferowanie danych do i z datalake, Weryfikacja logiki biznesowej oraz techniczna walidacja zaplanowanych procesów, Zapewnienie odpowiedniej dokumentacji dla procesów i zbiorów danych, Współpraca w zespole inżynierów danych Requirements: Spark, Scala, Hadoop, Hive, Azure Databricks, Clean Code, TDD, CI/CD, Git, GitHub, Jenkins, Sonar, Jira, Nexus Additionally: Remote work, English lessons, Benefit platform, Private healthcare, International projects, Platforma edukacyjna.

  • Praca Warszawa
  • Warszawa - Oferty pracy w okolicznych lokalizacjach


    78 389
    9 592