W Scalo zajmujemy się dostarczaniem projektów software'owych i wspieraniem naszych partnerów w rozwijaniu ich biznesu. Tworzymy oprogramowanie, które umożliwia ludziom dokonywanie zmian, działanie w szybszym tempie oraz osiąganie lepszych rezultatów. Jesteśmy firmą, która wykorzystuje szerokie spektrum usług IT, żeby pomagać klientom.
Obszary naszego działania to m.in.: doradztwo technologiczne, tworzenie oprogramowania, systemy wbudowane, rozwiązania chmurowe, zarządzanie danymi, dedykowane zespoły developerskie.
Cześć!
U nas znajdziesz to, czego szukasz - przekonaj się!
Big Data Engineer
Numer referencyjny: 48/2/2025/IK/9755
W Scalo czeka na Ciebie:
- praca nad rozwiązaniem, które przechowuje i analizuje dane dotyczące użytkowania podłączonych urządzeń. Urządzenia pochodzą z dużej liczby gospodarstw domowych. Wykorzystywany stos technologiczny: AWS (EMR, EC2, Glue, Lambda, Step Functions, S3, Kafka), Scala, Spark, Hudi, Python (Pandas, Numpy, Pytorch etc.), Github, Artifactory,
- projektowanie, implementacja i utrzymanie architektury przetwarzania dużych zbiorów danych (Big Data),
- tworzenie i zarządzanie hurtowniami danych oraz systemami analitycznymi,
- implementacja rozwiązań w chmurze (AWS),
- automatyzacja infrastruktury i zarządzanie konfiguracją środowiska,
- zapewnienie bezpieczeństwa kodu oraz jakości oprogramowania,
- monitorowanie, optymalizacja i rozwiązywanie problemów związanych z wydajnością systemów Big Data,
- tworzenie rozwiązań w obszarze Big Data z wykorzystaniem Scala lub PySaprk,
- praca w zespole, do którego należą: Product Owner, Architekt, 3 Inżynierów Big Data, 1 Analityk Big Data,
- stawka do 175 zł/h przy B2B w zależności od doświadczenia.
Ta oferta jest dla Ciebie, jeśli:
- posiadasz solidne doświadczenie w poniższych obszarach: inżynieria danych, hurtownie danych, architektura Big Data, BI, analiza danych (Regular - 3+ lata doświadczenia, Senior - 5+),
- znasz odpowiednie narzędzia do zarządzania kodem źródłowym, m. in. Git, GitHub, Artifactory, Confluence, Jira,
- miał_ś okazję pracować z technologiami chmurowymi, najlepiej ze środowiskiem AWS (EMR, EC2, Glue, Lambda, Step Functions, S3, Kafka),
- potrafisz pisać skrypty za pomocą jednego z tych języków: Python (Pandas, Numpy, Pytorch itp.), Scala, Spark, SQL,
- posiadasz doświadczenie w pracy z narzędziami do zarządzania konfiguracją, takimi jak Terraform lub Ansible,
- znasz technologie konteneryzacji: Docker, Nomad lub Kubernetes,
- masz doświadczenie w pracy w złożonym środowisku systemów oprogramowania związanych z Big Data,
- miał_ś styczność z narzędziami do analizy bezpieczeństwa i jakości kodu, takimi jak SonarQube lub Nexus IQ,
- Twój poziom języka angielskiego pozwala na swobodną komunikację (najlepiej C1).
Mile widziane:
- znajomość języka niemieckiego (B1 lub wyższy poziom).
Co dla Ciebie mamy:
- długofalową współpracę - różnorodne projekty (działamy w ramach Software Services, Embedded Services, Data Services, Cloud Services),
- możliwość rozwoju kompetencji we współpracy z naszym Center of Excellence,
- kafeteryjny system benefitów - Motivizer,
- prywatną opiekę medyczną - Luxmed.
Brzmi interesująco? Aplikuj - czekamy na Twoje CV!