.
Senior Data Engineer @ Integral Solutions
  • Warsaw
Senior Data Engineer @ Integral Solutions
Warszawa, Warsaw, Masovian Voivodeship, Polska
Integral Solutions
5. 2. 2026
Informacje o stanowisku


Kogo szukamy

Twórz z nami nowoczesne rozwiązania Data Lake i DWH w środowisku GCP, mające realny wpływ na decyzje biznesowe. Pracuj z zaawansowanymi technologiami Big Data, GenAI oraz architekturą zdarzeniową, rozwijając swoje kompetencje w Pythonie i Rust. Dołącz do zespołu, który działa w modelu DevSecOps i buduje skalowalne rozwiązania przyszłości. ?

Wymagania

  • Doświadczenie w projektowaniu oraz budowie rozwiązań klasy Data Lake
  • Praktyczna znajomość programowania w językach Python i/lub Rust
  • Doświadczenie w pracy z architekturą sterowaną zdarzeniami (np. Kafka, Pub/Sub), 
  • Bardzo dobra znajomość baz danych Google Cloud Platform, w szczególności BigQuery (projektowanie, budowa oraz tuning), 
  • Znajomość relacyjnych baz danych Oracle oraz PostgreSQL (projektowanie, budowa i optymalizacja), 
  • Zaawansowana znajomość systemu operacyjnego Linux

Mile widziane

  • Doświadczenie w budowie rozwiązań Big Data wykorzystujących możliwości GenAI, w tym przetwarzanie danych niestrukturalnych (np. transkrypcje audio, dokumenty tekstowe, obrazy), 
  • Znajomość narzędzia Automate Now
  • Doświadczenie w pracy z Apache Airflow
  • Znajomość Apache Spark (preferowane środowisko GCP DataProc), 
  • Znajomość Apache Beam (preferowane środowisko GCP DataFlow), 
  • Doświadczenie z Informatica PowerCenter
,[Projektowanie i budowa rozwiązań klasy Data Lake oraz Data Warehouse (DWH), , Realizacja procesów zasilania danych on-line oraz off-line, , Projektowanie i wdrażanie rozwiązań informatycznych w obszarze integracji i zasilania danych, , Analiza danych oraz przygotowywanie modeli logicznych i fizycznych, , Optymalizacja i strojenie zapytań SQL w bazach relacyjnych i hurtownianych (on-premise oraz GCP), , Tworzenie przepływów danych on-line i off-line w narzędziach on-prem oraz chmurowych (GCP), , Implementacja procesów ładowania danych w Python oraz Rust dla danych strukturalnych i niestrukturalnych, , Budowa datamartów tematycznych na bazach relacyjnych i kolumnowych, , Opracowywanie koncepcji oraz implementacja rozwiązań zgodnie z wymaganiami biznesowymi, , Udział w analizie i usuwaniu incydentów oraz rozwiązywaniu problemów, , Wsparcie testów oraz wdrożeń zmian w obszarze procesów zasilania danych, , Wsparcie serwisowe dla wdrożonego oprogramowania, , Praca zgodnie z modelem DevSecOps.  Requirements: Data Lake, GCP, Big data, C, Python, Rust, Data warehouse, SQL, Kafka, PUB, Google cloud platform, BigQuery, Oracle, PostgreSQL, Linux, Apache Airflow, Apache Spark, Apache Beam, Informatica PowerCenter

  • Praca Warszawa
  • Warszawa - Oferty pracy w okolicznych lokalizacjach


    118 577
    17 669