Technologies-expected : Python SQL Java Scala ETL AWS/Azure/Google Azure Postgre SQL/My SQL/Mongo DB/Cassandra Hadoop/Spark/Kafka Docker Kubernetes CI/CD about-project : Szukamy wysoko wykwalifikowanego i doświadczonego Data Engineera, który dołączy do naszego zespołu. Na tym stanowisku będziesz odpowiedzialny za projektowanie, budowanie i utrzymywanie naszej infrastruktury danych, a także za opracowywanie i wdrażanie potoków danych w celu wsparcia naszych inicjatyw opartych na danych. Będziesz ściśle współpracować z naszymi zespołami ds. nauki o danych i analityki, aby zapewnić integralność, dokładność i skalowalność naszych systemów danych. responsibilities : Projektowanie, budowanie i utrzymywanie skalowalnych potoków danych i procesów ETL. Opracowywanie i optymalizowanie architektur danych w celu obsługi przypadków użycia analitycznego i operacyjnego. Współpraca z naukowcami zajmującymi się danymi, analitykami i inżynierami w celu wdrażania rozwiązań dotyczących danych. Zapewnienie stosowania najlepszych praktyk w zakresie jakości danych, bezpieczeństwa i zarządzania. Monitorowanie i poprawa wydajności systemu, zapewnienie niezawodności i wydajności. requirements-expected : Licencjat lub tytuł magistra w dziedzinie informatyki, inżynierii danych lub pokrewnych dziedzin. Znajomość przepływów pracy i narzędzi uczenia maszynowego (np. Tensor Flow, Py Torch). Doświadczenie w korzystaniu z narzędzi do wizualizacji danych (np. Tableau, Power BI). Silne umiejętności rozwiązywania problemów i konsultacyjne podejście do pracy. Solidne zrozumienie etyki AI i odpowiedzialnych praktyk dotyczących danych. Znajomość Pythona, SQL i co najmniej jednego innego języka, takiego jak Java lub Scala. Doświadczenie w zakresie frameworków ETL (np. Apache Airflow, Talend lub podobnych). Silna znajomość środowisk chmurowych, takich jak AWS, Azure lub Google Cloud, w tym usług takich jak S3, Big Query, Databricks lub Azure Data Factory. Praktyczne doświadczenie w zakresie relacyjnych i No SQL baz danych (np. Postgre SQL, My SQL, Mongo DB, Cassandra). Znajomość Hadoop, Spark lub Kafka do przetwarzania danych na dużą skalę. Znajomość konteneryzacji (Docker, Kubernetes) i potoków CI/CD. Zrozumienie bezpieczeństwa danych, przepisów dotyczących prywatności i ram zarządzania. offered : Pracę w firmie nagrodzonej certyfikatami Great Place to Work oraz Forbes Diamond Certificate. Elastyczne godziny pracy. Atrakcyjny system bonusów za polecenia. Współfinansowanie karty Multi Sport. Współfinansowanie pakietu opieki medycznej Luxmed. Grupowe ubezpieczenie na życie. Indywidualny coaching języka angielskiego (1:1). Doskonałe wydarzenia integracyjne. Pracę w środowisku sprzyjającym wymianie i dzieleniu się wiedzą IT. Praca hybrydowa: 4 dni zdalnie i 1 dzień w biurze lub w pełni stacjonarnie. Możliwość pracy z jednego z naszych biur w Wrocławiu, Warszawie, Opolu, Poznaniu – wybór należy do Ciebie. benefits : dofinansowanie zajęć sportowych prywatna opieka medyczna ubezpieczenie na życie spotkania integracyjne brak dress code’u kawa / herbata napoje program rekomendacji pracowników