W Scalo zajmujemy się dostarczaniem projektów softwareowych i wspieraniem naszych partnerów w rozwijaniu ich biznesu. Tworzymy oprogramowanie, które umożliwia ludziom dokonywanie zmian, działanie w szybszym tempie oraz osiąganie lepszych rezultatów. Jesteśmy firmą, która wykorzystuje szerokie spektrum usług IT, żeby pomagać klientom.
Obszary naszego działania to m.in.: doradztwo technologiczne, tworzenie oprogramowania, systemy wbudowane, rozwiązania chmurowe, zarządzanie danymi, dedykowane zespoły developerskie.
responsibilities :
rozwijanie platformy DataHub do przechowywania i przetwarzania danych. Wykorzystywany stos technologiczny: Spark, Scala, TDD, Hadoop, Hive, DataBricks, CI/CD, Git, GitHub, Jenkins, Sonar, Nexus, Jira, SQL, PostgreSQL,
rozwój, testowanie i wdrażanie specyfikacji technicznych i funkcjonalnych przygotowanych przez Solution Designerów, Architektów Biznesowych oraz Analityków Biznesowych,
zapewnienie poprawnego działania opracowanych rozwiązań,
dbanie o zgodność z wewnętrznymi standardami jakości,
praca w modelu hybrydowym: 1-2 razy w tygodniu praca z biura w Warszawie,
stawka do 170 zł/h przy B2B w zależności od doświadczenia.
requirements-expected :
masz minimum 2 lata doświadczenia z Apache Spark i Scalą, znasz wzorce projektowe i pracujesz w podejściu Test-Driven Development (TDD),
masz doświadczenie z technologiami Big Data – Spark, Hadoop, Hive (znajomość Azure Databricks będzie dodatkowym atutem),
masz doświadczenie w pracy w metodyce SCRUM/Agile,
masz doświadczenie w integracji i zarządzaniu dużymi wolumenami danych,
dobrze znasz narzędzia CI/CD i DevOps: Git, GitHub, Jenkins, Sonar, Nexus, Jira,
posiadasz znajomość struktur baz danych (PostgreSQL, SQL, Hive),
biegle komunikujesz się w języku angielskim (min. B2).
offered :
długofalową współpracę - różnorodne projekty (działamy w ramach Software Services, Embedded Services, Data Services, Cloud Services),
możliwość rozwoju kompetencji we współpracy z naszym Center of Excellence,