.
DevOps // Cloud Engineer // Admin
  • Warszawa
DevOps // Cloud Engineer // Admin
Warszawa, Warszawa, Województwo mazowieckie, Polska
ITLT
2. 10. 2024
Informacje o stanowisku

W ITLT pomagamy naszym zaprzyjaźnionym firmom przekształcać ambitne pomysły w cyfrową rzeczywistość.

Z nastawieniem na wyzwania, ciekawość technologii i zwinność - współtworzymy wyjątkowe rozwiązania IT i zapewniamy najlepszych specjalistów - którzy pomagają przyspieszyć cyfrową transformację.

Aktualnie poszukujemy kandydatów na stanowisko: DevOps/Cloud Engineer/Admin (Azure OR GCP)


KONKRETY:


  • Stawka: do 140-150PLN/h na FV
  • Miejsce pracy/praca zdalna: Zapewniamy swobodę pracy zdalnej, przy czym 1x w miesiącu zapraszamy do warszawskiego biura na PI planning/workshop.
  • Sektor: Money Services
  • Projekt/Opis: Projektowanie, wdrażanie i utrzymywanie systemów hurtowni danych oraz analityki w środowisku chmurowym. Praca w projektach w środowiskach publicznych, hybrydowych i multi-chmurowych przy projektowaniu i budowie bezpiecznych, skalowalnych i odpornych środowisk w chmurze dla działu Hurtowni Danych
  • Proces rekrutacji: 1-etapowy (techniczne spotkanie zdalne), sporadycznie może się zdarzyć krótkie dodatkowe spotkanie z Managerem połączone z decyzją
  • Szacowany czas trwania projektu: Długoterminowy/bezterminowy
  • Czas pracy/Strefa czasowa: Standardowe polskie godziny pracy (8->16 lub 9->17)
  • Zespół/Struktura: Zespół który zajmuje się usługami SAS (4 os.) i zespół chmur publicznych (4 os) odpowiadający za projektowanie, dostarczanie usług w postaci teraformów do procesów CI/CD.
  • Technologie na projekcie: Azure, GCP, Azure DevOps, Ansible Jenkins, Terraform, Chef, Atlassiaj Jira/Confluence, Kubernetes, Kubeflow, Hadoop (HDFS, Pig, Hive, Impala, Spark)



Do Twoich głównych obowiązków na tym stanowisku należeć będzie:

  • Projektowanie, wdrażanie i utrzymywanie systemów hurtowni danych oraz analityki w środowisku chmurowym
  • Praca w projektach w środowiskach publicznych, hybrydowych i multi-chmurowych przy projektowaniu i budowie bezpiecznych, skalowalnych i odpornych środowisk w chmurze dla działu Hurtowni Danych
  • Projektowanie i udział w testach wewnętrznych oprogramowania
  • Praca z zespołami wdrożeniowymi od etapu koncepcji przez wdrożenia do utrzymania i stałego rozwoju, zapewniając wiedzę techniczną w zakresie analizy w chmurze i lokalnej oraz przetwarzania danych
  • Planowanie, wdrażanie i rozwój systemu monitoringu infrastruktury, aplikacji i usług w chmurze
  • Projektowanie i rozwój procesów automatycznego tworzenia i zarządzania konfiguracją środowisk
  • Rozwój infrastruktury jako kodu; -Projektowanie i wdrażanie potoku ciągłej integracji i dostarczania (CI/CD)
  • Utrzymywanie aplikacji w kontenerach
  • Analiza, obsługa i rozwiązywanie wykrytych problemów
  • Tworzenie i aktualizacja dokumentacji technicznej i funkcjonalnej systemu
  • Promowanie najlepszych praktyk dotyczące platformy Azure lub GCP



Ta oferta będzie idealna dla Ciebie, jeśli posiadasz:

  • Przynajmniej 3 lata hands-on experience z Azure lub GCP
  • Przynajmniej 5 letnie doświadczenia w pracy w złożonym środowisku przetwarzania danych tj. hurtownie danych, systemy analityczne
  • Minimum 2 lata doświadczenia jako admin
  • Minimum 3 lata doświadczenia jako kreator, architekt, developer, wdrożeniowiec, osoba rozwijająca CI/CD dla aplikacji chmurowych, przy wykorzystaniu narzędzi takich jak: Azure DevOps, Ansible, Jenkins
  • Doświadczenie w tworzeniu „Infrastucture as Code” (IaC), z wykorzystaniem standardowych narzędzi branżowych (np. np. Ansible, Terraform, Chef)
  • Dobrą znajomość systemów operacyjnych Windows i Linux
  • Biegłą znajomość Git, doświadczenie z Altlassian Jira i Confluence
  • Praktyczne doświadczenie z Kubernetesem i technologiami kontenerowymi, takimi jak Docker, Azure Container Registry



Byłoby miło, gdybyś posiadał:

  • Doświadczenie w migrowaniu systemów, usług i użytkowników ze środowiska lokalnego do chmury;
  • Podstawową znajomość zagadnień sieciowych LAN/WAN, urządzeń sieciowych, Firewall, Proxy, Load Balancer, HTTP(s), SSH, TCP/IP, usług sieciowych REST, SOAP;
  • Doświadczenie z technologiami Hadoop, takimi jak HDFS, Pig, Hive, Impala, Spark oraz zarządzaniem systemem Hadoop.
  • Doświadczenie w pracy z platformami, narzędziami typu Machine Learning (np. Kubeflow);
  • Certyfikaty z technologii chmurowych (Azure lub GCP)



Warto do nas dołączyć, ponieważ oferujemy:

  • Dużą swobodę pracy zdalnej
  • Długofalowe stabilne zatrudnienie w oparciu o kontrakt B2B.
  • Dopłatę do karty MultiSport oraz ubezpieczenia.
  • Elastyczne godziny startu pracy.
  • Szansę na uczestniczenie w kluczowych projektach dla dużej firmy działającej w bardzo stabilnym sektorze.



W razie pytań pisz śmiało na Linkedinie do Kuby ;)



W polu "Dodatkowe informacje dla Działu Rekrutacji" --> opisz proszę w 2-3 zdaniach czy posiadasz doświadczenie z projektami z zakresu bankowgo/finansowego. Daj też znać ile lat doświadczenia posiadasz w Azure lub GCP

  • Praca Warszawa
  • Warszawa - Oferty pracy w okolicznych lokalizacjach


    116 108
    21 116