Technologies-expected : Py Spark Google Cloud Platform Spark Big Data technologies-optional : Hadoop Kafka Airflow SQL responsibilities : Projektowanie, rozwój i utrzymanie pipelineów danych w oparciu o Py Spark i GCP Optymalizacja wydajności i skalowalności rozwiązań Big Data Współpraca z zespołem Data Science i innymi działami biznesowymi Monitorowanie i rozwiązywanie problemów związanych z infrastrukturą danych Wdrażanie najlepszych praktyk w zakresie inżynierii danych requirements-expected : Solidne doświadczenie w programowaniu w Py Spark (3+ lat) Umiejętność zarządzania klastrami Spark Bardzo dobra znajomość Google Cloud Platform (GCP) Doświadczenie w implementacji kompleksowych pipelineów danych Płynna znajomość języka angielskiego w mowie i piśmie na poziomie B2+ offered : Zatrudnienie na podstawie umowy B2 B na czas nieokreślony Możliwość pracy w 100% zdalnie Dołączysz do nowoczesnej firmy z solidną pozycją na rynku Firma zapewnia nowoczesny sprzęt, oprogramowanie i konfigurację Możliwość pracy w elastycznych godzinach Profesjonalne doradztwo i wsparcie w rozwoju kariery od doświadczonego zespołu specjalistów 1dea Cenimy sobie koleżeńskość, otwartość, szacunek, wzajemną pomoc i wsparcie w rozwijaniu kompetencji zarówno własnych, jak i kolegów i koleżanek z zespołu Wspieramy kulturę kreatywności. Każdy członek zespołu ma możliwość proponowania własnych pomysłów i rozwiązań, a jego głos jest zawsze brany pod uwagę