Wrocław, Wrocław, Lower Silesian Voivodeship, Polska
BCF Software Sp. z o.o.
16. 1. 2025
Informacje o stanowisku
technologies-expected :
AWS
Terraform
IaC
Python
R
SQL
NoSQL
Airflow
Glue
Dataflow
Redshift
Lambda
Git
Gitflow
Docker
Jenkins
Bamboo
technologies-optional :
SageMaker Studio
Machine Learning
SDTM
about-project :
Szukamy doświadczonego Specjalisty AWS z wiedzą w zakresie DevOps do zespołu zajmującego się zaawansowaną analityką i sztuczną inteligencją!
Jeśli posiadasz pasję do projektowania, rozwijania i utrzymania platform opartych na AWS dla inżynierów i naukowców zajmujących się uczeniem maszynowym, ta rola jest dla Ciebie. Dołącz do nas i współtwórz multitenantową platformę opartą na AWS, wspierając rozwój i wdrażanie modeli oraz pipelineów ML.
responsibilities :
=Projektowanie i implementacja multitenantowej platformy opartej na AWS dla inżynierów ML i naukowców zajmujących się danymi.
Tworzenie skalowalnych rozwiązań do zarządzania modelami ML i pipelineami.
Tworzenie i utrzymanie infrastruktury chmurowej z wykorzystaniem Terraform.
Konfiguracja usług AWS, takich jak S3, VPC, IAM, oraz ich integracja z procesami DevOps.
Wdrożenie najlepszych praktyk GitOps i DevOps w procesach tworzenia i utrzymania infrastruktury.
Automatyzacja deploymentów i procesów CI/CD.
Projektowanie rozwiązań skoncentrowanych na potrzebach użytkowników końcowych.
Współpraca z użytkownikami w celu zapewnienia optymalnego doświadczenia w korzystaniu z platformy.
Analiza wydajności infrastruktury oraz identyfikowanie obszarów wymagających optymalizacji.
Rozwiązywanie problemów technicznych i zapewnienie wysokiej dostępności platformy.
Tworzenie i utrzymanie pipelineów danych, obejmujących różne formaty i typy danych.
Praca z różnorodnymi technologiami przetwarzania i przechowywania danych (m.in. relacyjne bazy danych, NoSQL, dane niestrukturalne).
requirements-expected :
Zaawansowana znajomość AWS (uprawnienia ról, networking, usługi takie jak S3, VPC, IAM).
Doświadczenie w pracy z Terraform i IaC.
Minimum 4 lata doświadczenia w programowaniu zorientowanym na przetwarzanie danych (Python lub R).
Minimum 4 lata doświadczenia w pracy z SQL.
Minimum 3 lata doświadczenia w utrzymaniu pipelineów danych.
Znajomość różnych typów magazynów danych (filesystem, relacyjne, NoSQL) oraz formatów danych (strukturalnych, niestrukturalnych, logi, metryki).
Minimum 3 lata doświadczenia w technologiach chmurowych (Airflow, Glue, Dataflow, Redshift, Lambda, S3, itp.).
Bardzo dobra znajomość Git, Gitflow, Docker, Jenkins, Bamboo, Terraform.
Doskonała znajomość systemu Unix.
offered :
Pracę w firmie nagrodzonej certyfikatami Great Place to Work oraz Forbes Diamond Certificate.