Min. 2 lata doświadczenia w programowaniu w spark w Python (lub Scala)
Znajomość koncepcji Big Data, Hurtowni Danych i Zarządzania Danymi
Znajomość platformy Hadoop Cloudera/Hortonworks
Znajomość dobrych praktyk inżynieryjnych, przetwarzania dużych zbiorów danych, w tym standardów projektowania, technik modelowania danych, kodowania, dokumentowania, testowania i wdrażania
Doświadczenie z różnymi formatami danych: JSON, PARQUET, ORC, AVRO
Zrozumienie typów baz danych i scenariuszy użycia, np. hive, kudu, hbase, Iceberg itp
Znajomość języka SQL na poziomie zaawansowanym
Doświadczenie w integracji danych z wielu źródeł danych
Znajomość narzędzi do budowy projektów/aplikacji, np. Maven
Wymagania
Praktyczna znajomość procesów i narzędzi Agile: Jira, Confluence, Kanban, Scrum itp.
Znajomość platformy Kubeflow
Znajomość technologii i narzędzi strumieniowych takich jak Kafka, Apache Nifi
Relacje i dostęp do wiedzy najbardziej doświadczonych ekspertów IT na rynku – średni staż zawodowy naszego Konsultanta w Polsce to ponad 10 lat
Narzędzia niezbędne do świadczenia usług
Pakiet benefitów zaplanowany od A do Z, czyli dofinansowanie do opieki medycznej, ubezpieczenia na życie, karty sportowej dla Ciebie i Twoich bliskich, a także zniżki do sklepów w Polsce i za granicą.