Projektowanie, budowa i utrzymanie procesów ETL/ELT;
Optymalizacja zapytań oraz integracja danych z różnych źródeł;
Praca z relacyjnymi oraz NoSQL bazami danych;
Tworzenie i rozwój rozwiązań w chmurze (AWS / Azure / GCP);
Współpraca z zespołem analityków, developerów i architektów przy projektach związanych z Big Data i Data Science;
Udział w rozwoju standardów oraz automatyzacji w obszarze danych.
Nasze wymagania
Doświadczenie w budowaniu ETL/ELT pipelines;
Bardzo dobra znajomość Pythona;
Znajomość relacyjnych baz danych (PostgreSQL, MySQL itp.);
Znajomość baz danych NoSQL;
Doświadczenie w pracy z Apache Spark, Hadoop, Hive lub podobnymi usługami w chmurze (AWS – Glue, S3, Athena; Azure – Data Lake, Data Factory; GCP – Dataflow, Dataproc, Cloud Storage);
Doświadczenie w pracy z Databricks lub innymi podobnymi narzędziami;
Znajomość języka włoskiego na poziomie min. B1 (komunikatywnie).