W Scalo zajmujemy się dostarczaniem projektów softwareowych i wspieraniem naszych partnerów w rozwijaniu ich biznesu. Tworzymy oprogramowanie, które umożliwia ludziom dokonywanie zmian, działanie w szybszym tempie oraz osiąganie lepszych rezultatów. Jesteśmy firmą, która wykorzystuje szerokie spektrum usług IT, żeby pomagać klientom.
Obszary naszego działania to m.in.: doradztwo technologiczne, tworzenie oprogramowania, systemy wbudowane, rozwiązania chmurowe, zarządzanie danymi, dedykowane zespoły developerskie.
responsibilities :
uczestnictwo w projektach bankowych oraz praca w zespole Data Lake, którego celem będzie wdrożenia strategii cyfrowej oraz budowa platformy danych poprzez wspieranie technicznych projektów o wysokiej wartości dodanej (m. in. innowacyjnych, biznesowych i/lub regulacyjnych),
rozwój i wdrażanie procesów zbierania, przetwarzania i mapowania danych (Spark/Scala),
implementacja i optymalizacja rozwiązań Big Data w ekosystemie Hadoop (Hive, HDFS, SQOOP, Oozie),
udoskonalanie procesów CI/CD (Jenkins, Sonar, Nexus, Kubernetes),
tworzenie i utrzymanie wysokiej jakości kodu zgodnie z najlepszymi praktykami (TDD, BDD, clean code, peer programming),
współpraca z zespołami z innych lokalizacji (nie wpływa to na godziny pracy),
analiza i optymalizacja wydajności systemów oraz rozwiązywanie błędów produkcyjnych,
udział w przeglądach kodu oraz dzielenie się wiedzą z zespołem,
praca w modelu hybrydowym: 2 razy w tygodniu praca w biurze w Warszawie,
stawka do 155 zł/h przy B2B w zależności od doświadczenia.
requirements-expected :
posiadasz minimum 3 lata doświadczenia w pracy na stanowisku Scala Developer,