Informacje o stanowisku
          Projekt:
Rozwój i utrzymanie platformy dedykowanej klientom giełdowym.
Dołączysz do zespołu, odpowiedzialnego za rozwój i dostarczanie strategicznego rozwiązania łączącego systemy Dealstores z aplikacjami Operacyjnymi i Regulacyjnymi w ramach Digital Operations Stream.
Projekt jest częścią wieloletniej strategii migracji do chmury oraz modernizacji obecnego ekosystemu technologicznego.
- Przynajmniej 5-6 lat doświadczenia w roli developera.
 - Wykształcenie wyższe (informatyka lub pokrewne) lub odpowiednie certyfikaty.
 - Bardzo dobra znajomość Spark i PySpark – doświadczenie w budowie skalowalnych rozwiązań przetwarzania danych (wymagane).
 - Doświadczenie w tworzeniu i integracji przepływów danych w czasie rzeczywistym i wsadowym przy użyciu Kafka.
 - Znajomość Databricks i Delta Tables – duży atut.
 - Doświadczenie w pracy z CI/CD (preferowane: GitLab, ADO lub GitHub).
 - Umiejętność pracy w modelu Test-Driven Development (TDD) i stosowania zasad projektowania oprogramowania.
 - Znajomość architektury chmurowej i wdrożeń w Azure (preferowane) lub AWS/GCP.
 - Mile widziane doświadczenie w Java backend development, wspierające współpracę z szerszym systemem opartym na Javie.
 - Znajomość Kubernetes i nowoczesnej infrastruktury danych będzie dodatkowym atutem.
 
 Projekt:
Rozwój i utrzymanie platformy dedykowanej klientom giełdowym.
Dołączysz do zespołu, odpowiedzialnego za rozwój i dostarczanie strategicznego rozwiązania łączącego systemy Dealstores z aplikacjami Operacyjnymi i Regulacyjnymi w ramach Digital Operations Stream.
Projekt jest częścią wieloletniej strategii migracji do chmury oraz modernizacji obecnego ekosystemu technologicznego.
 ,[Projektowanie i rozwój platformy umożliwiającej przepływ danych o transakcjach pomiędzy Dealstores a systemami Operacyjnymi i Regulacyjnymi., Realizacja funkcjonalności na podstawie epików i wymagań produktowych., Współpraca z członkami zespołu w sprintach w celu iteracyjnego dostarczania rozwiązań., Ścisła współpraca z zespołem produktowym w zakresie implementacji nowych funkcjonalności. Requirements: Spark, PySpark, Kafka, Cloud, Databricks , Delta Table, Java, Kubernetes
           
Praca KrakówKraków - Oferty pracy w okolicznych lokalizacjach