Wrocław, Wrocław, Lower Silesian Voivodeship, Polska
BCF Software Sp. z o.o.
10. 12. 2024
Informacje o stanowisku
technologies-expected :
Python
SQL
Java
Scala
ETL
AWS/Azure/Google Azure
PostgreSQL/MySQL/MongoDB/Cassandra
Hadoop/Spark/Kafka
Docker
Kubernetes
CI/CD
about-project :
Szukamy wysoko wykwalifikowanego i doświadczonego Data Engineera, który dołączy do naszego zespołu. Na tym stanowisku będziesz odpowiedzialny za projektowanie, budowanie i utrzymywanie naszej infrastruktury danych, a także za opracowywanie i wdrażanie potoków danych w celu wsparcia naszych inicjatyw opartych na danych. Będziesz ściśle współpracować z naszymi zespołami ds. nauki o danych i analityki, aby zapewnić integralność, dokładność i skalowalność naszych systemów danych.
responsibilities :
Projektowanie, budowanie i utrzymywanie skalowalnych potoków danych i procesów ETL.
Opracowywanie i optymalizowanie architektur danych w celu obsługi przypadków użycia analitycznego i operacyjnego.
Współpraca z naukowcami zajmującymi się danymi, analitykami i inżynierami w celu wdrażania rozwiązań dotyczących danych.
Zapewnienie stosowania najlepszych praktyk w zakresie jakości danych, bezpieczeństwa i zarządzania.
Monitorowanie i poprawa wydajności systemu, zapewnienie niezawodności i wydajności.
requirements-expected :
Licencjat lub tytuł magistra w dziedzinie informatyki, inżynierii danych lub pokrewnych dziedzin.
Znajomość przepływów pracy i narzędzi uczenia maszynowego (np. TensorFlow, PyTorch).
Doświadczenie w korzystaniu z narzędzi do wizualizacji danych (np. Tableau, Power BI).
Silne umiejętności rozwiązywania problemów i konsultacyjne podejście do pracy.
Solidne zrozumienie etyki AI i odpowiedzialnych praktyk dotyczących danych.
Znajomość Pythona, SQL i co najmniej jednego innego języka, takiego jak Java lub Scala.
Doświadczenie w zakresie frameworków ETL (np. Apache Airflow, Talend lub podobnych).
Silna znajomość środowisk chmurowych, takich jak AWS, Azure lub Google Cloud, w tym usług takich jak S3, BigQuery, Databricks lub Azure Data Factory.
Praktyczne doświadczenie w zakresie relacyjnych i NoSQL baz danych (np. PostgreSQL, MySQL, MongoDB, Cassandra). Znajomość Hadoop, Spark lub Kafka do przetwarzania danych na dużą skalę.
Znajomość konteneryzacji (Docker, Kubernetes) i potoków CI/CD.
Zrozumienie bezpieczeństwa danych, przepisów dotyczących prywatności i ram zarządzania.
offered :
Pracę w firmie nagrodzonej certyfikatami Great Place to Work oraz Forbes Diamond Certificate.