Regular DevOps Engineer (GCP) k/m/* Miejsce pracy: Katowice Technologie, których używamy Wymagane Google Cloud Platform Kubernetes Apache Spark Terraform Bash Python Mile widziane Airflow Grafana Prometheus O projekcie Dołącz do zespołu rozwijającego platformę danych opartą o Google Cloud Platform (GCP) w roli Regular DevOps Engineera. Będziesz pracować blisko zespołów Data Engineering, Analytics oraz Operations, wspierając rozwój, stabilność i bezpieczeństwo środowisk przetwarzających dane. Twój zakres obowiązków Współpraca z zespołami inżynierii danych, analityki i operacji w celu usprawnienia aplikacji danych, w tym rozwiązań big data i przepływów operacyjnych. Monitorowanie kondycji, wydajności i bezpieczeństwa infrastruktury oraz szybkie rozwiązywanie problemów. Wdrażanie i egzekwowanie wymagań dotyczących prywatności i bezpieczeństwa zgodnie ze standardami organizacyjnymi i regulacyjnymi. Zapewnienie szczegółowej dokumentacji infrastruktury, procesów i mechanizmów zgodności. Prowadzenie działań związanych z techniczną implementacją kontroli dostępu, szyfrowania, retencji danych i monitorowania bezpieczeństwa. Regularne przeglądy i audyty systemów w celu zapewnienia ciągłej zgodności oraz podejmowanie działań naprawczych w razie potrzeby. Automatyzacja i dokumentowanie powtarzalnych procedur operacyjnych i zgodności w celu zapewnienia niezawodności i przejrzystości. Nasze wymagania Minimum 3 lata doświadczenia jako DevOps Engineer. Praktyczna znajomość zarządzania danymi w GCP, Kubernetes, Apache Spark. Doświadczenie w obsłudze infrastruktury danych lub platform analitycznych. Umiejętność pracy z Infrastructure as Code (IaC) – np. Terraform, Ansible. Znajomość języków skryptowych (np. Python, Bash) do automatyzacji zadań. Znajomość narzędzi do monitorowania chmury. Silne zrozumienie sieci, bezpieczeństwa i najlepszych praktyk infrastruktury chmurowej. Umiejętności rozwiązywania problemów, proaktywne podejście i dobra komunikacja. Język angielski na poziomie min. B2 Gotowość do pracy hybrydowej 3 dni z biura w Warszawie, Katowicach, Łodzi, Lublinie lub Poznaniu. Mile widziane Doświadczenie w pracy z big data pipelines i orkiestracją workflow (np. Airflow). Znajomość narzędzi do monitorowania i alertowania (np. Prometheus, Grafana). Certyfikaty chmurowe (np. Google Cloud Professional, CKA). Tak organizujemy naszą pracę Tak pracujemy u klienta SQUARE ONE RESOURCES sp. z o.o. At Square One Poland we link IT experts with the business. With over 25 years of experience, we specialize in recruitment processes on a global scale. Despite years of experience, we still have a startup DNA and this is our advantage. Our offices are located in London and Warsaw, however, we can reach clients from all over the world, from start-ups to big worldwide corporations. Klikając w przycisk „Aplikuj” lub w inny sposób wysyłając zgłoszenie rekrutacyjne, zgadzasz się na przetwarzanie Twoich danych osobowych przez SQUARE ONE RESOURCES sp. z o.o. z siedzibą w: Puławska 2, 02-566 Warszawa (Pracodawca), jako administratora danych osobowych w celu przeprowadzenia rekrutacji na stanowisko wskazane w ogłoszeniu.Pełną informację odnośnie przetwarzania Twoich danych osobowych znajdziesz tutaj.