Poszukujemy osoby, która dołączy do naszego zespołu Data Platform w roli Data Engineer. Głównym zadaniem zespołu jest utrzymanie i rozwój hurtowni danych on premise i jej docelowa migracja na środowisko chmurowe. Współpracujemy z zespołami produktowymi w celu dostarczenia danych potrzebnych do podejmowania kluczowych decyzji biznesowych. Pracujemy w frameworku Scrum.
Do Twoich codziennych obowiązków będzie należało:
- Projektowanie i utrzymywanie hurtowni danych oraz migracja danych i procesów na środowisko chmure,
- Tworzenie i utrzymywanie modeli danych do wspierania kluczowych decyzji biznesowych,
- Integracja danych w celu wytworzenia wymaganych modeli danych,
- Wdrażanie kontroli jakości danych i procesów walidacji, aby zapewnić dokładność, spójność i kompletność,
- Współpraca z innymi zespołami, aby tworzyć zestawy danych spełniające potrzeby raportowania i rozwiązujące problemy systemowe,
- Projektowanie i wykonywanie testów wydajnościowych i integracyjnych,
- Raportowanie kluczowych wskaźników w firmie w narzędziu BI
Wymagania
- Co najmniej 4-letnie doświadczenie w pracy na stanowisku SQL Developer / Data Engineer
- Znajomość Python, SQL w tym T-SQL, pisanie złożonych procedur składowanych, optymalizacja wydajności,
- Umiejętność tworzenia procesów ETL (SSIS, ADF),
- Doświadczenie zawodowe w eksploracji danych, analizie i modelowaniu złożonych zbiorów danych na dużą skalę;
- Doświadczenie w pracy z narzędziami do zarządzania kodem źródłowym, takimi jak GIT
- Dobra znajomość zasad standardów integracyjnych: REST, gRPC
- Umiejętność tworzenia raportów w PowerBI / SSRS
- Doświadczenie w tworzeniu, wdrażaniu i rozwiązywaniu problemów z aplikacjami danych na platformie Microsoft Azure
- Znajomość rozwiązań chmurowych (Azure, GCP),
- Silne umiejętności rozwiązywania problemów i dbałość o szczegóły.
- Umiejętność skutecznej komunikacji i współpracy w zespole.
- Chęć uczenia się i dostosowywania do nowych technologii i koncepcji.
- Rozumienie zasad Agile i Scrum (pracujemy w Scrumie)
Dodatkowe atuty
- Doświadczenie w budowaniu skalowalnych, działających w czasie rzeczywistym rozwiązań typu Data Lake,
- Doświadczenie ze strumieniowym przesyłaniem danych (Kafka),
- Znajomość koncepcji Data Mesh.
Oferujemy
- Pracę w dynamicznie rozwijającym się projekcie realizowanym w obszarze globalnego rynku finansowego,
- Współpracę z doświadczonymi Managerami i Product Ownerami,
- Rzeczywisty wpływ na tworzenie nowych rozwiązań w obszarze,
- Dużą samodzielność i możliwości rozwoju kompetencji biznesowych i technicznych,
- Budżet szkoleniowy,
- Pakiet świadczeń pozapłacowych.