W Scalo zajmujemy się dostarczaniem projektów softwareowych i wspieraniem naszych partnerów w rozwijaniu ich biznesu. Tworzymy oprogramowanie, które umożliwia ludziom dokonywanie zmian, działanie w szybszym tempie oraz osiąganie lepszych rezultatów. Jesteśmy firmą, która wykorzystuje szerokie spektrum usług IT, żeby pomagać klientom.
Obszary naszego działania to m.in.: doradztwo technologiczne, tworzenie oprogramowania, systemy wbudowane, rozwiązania chmurowe, zarządzanie danymi, dedykowane zespoły developerskie.
Cześć!
U nas znajdziesz to, czego szukasz - przekonaj się!
W Scalo czeka na Ciebie:
Co dla Ciebie mamy:
Brzmi interesująco? Aplikuj – czekamy na Twoje CV!
W Scalo zajmujemy się dostarczaniem projektów softwareowych i wspieraniem naszych partnerów w rozwijaniu ich biznesu. Tworzymy oprogramowanie, które umożliwia ludziom dokonywanie zmian, działanie w szybszym tempie oraz osiąganie lepszych rezultatów. Jesteśmy firmą, która wykorzystuje szerokie spektrum usług IT, żeby pomagać klientom.
Obszary naszego działania to m.in.: doradztwo technologiczne, tworzenie oprogramowania, systemy wbudowane, rozwiązania chmurowe, zarządzanie danymi, dedykowane zespoły developerskie.
Cześć!
U nas znajdziesz to, czego szukasz - przekonaj się!
W Scalo czeka na Ciebie:
Co dla Ciebie mamy:
Brzmi interesująco? Aplikuj – czekamy na Twoje CV!
,[uczestnictwo w projekcie dot. budowy nowoczesnej platformy Data Lakehouse centralizującej dane CRM i dane operacyjne,, wykorzystywany stos technologiczny: Apache Iceberg, Spark, StarRocks, Trino, Superset, Airflow, OpenMetadata, CEPH (S3-compatible), dbt-spark, Python, SQL,, praca w 4–6 osobowym zespole: Senior DevOps Engineer, Senior Data Engineer, QA Engineer, PM/Architect,, integracja i konfiguracja komponentów lakehouse,, przygotowanie środowisk S3-compatible pod storage Iceberg i procesy ELT,, integracja OpenMetadata (katalogi, źródła danych, ingest metadanych),, konfiguracja Keycloak + Microsoft Entra ID (IAM, RBAC, polityki dostępu),, automatyzacja procesów i skryptów z użyciem Python + SQL,, współpraca z Data Engineerem przy wdrażaniu pipeline’ów Spark/dbt/Trino/StarRocks,, praca 100% remote,, stawka 160 zł/h przy B2B w zależności od doświadczenia. Requirements: DevOps, Python, SQL, Ceph, Spark, Airflow, Keycloak, Iceberg, S3, Trino, dbt Tools: Confluence, GitHub, GitLab, GIT, Jenkins, Agile, Scrum. Additionally: Sport subscription, Training budget, Private healthcare, International projects.