.
DataBricks Engineer
  • Białystok
DataBricks Engineer
Białystok, Białystok, Podlaskie Voivodeship, Polska
CRODU
14. 8. 2024
Informacje o stanowisku

Stawka: 160-200 zł/godz B2B

⏳ Czas projektu: długoterminowy

Forma pracy: 100% zdalnie


Cześć!  

Do projektów dostawcy DataBricks poszukujemy doświadczonych Data Engineerów.

We współpracy z naszym bliskim partnerem mamy dostęp do bazy projektów związanych z technologią DataBricks. Współpraca w modelu tzw. talent reserve strategy, dzięki któremu dostawca DataBricks będzie mógł samodzielnie wybierać kandydatów, którzy odpowiadają ich aktualnemu zapotrzebowaniu.

Poszukujemy samodzielnych specjalistów, którzy posiadają już doświadczenie z platformą DataBricks. Zależy nam by kandydaci wykazywali pełne zrozumienie dla rozwiązań chmurowych (przede wszystkim Azure, ale również AWS/ GCP) oraz biegle znali przynajmniej jeden z najczęściej wykorzystywanych języków do tworzenia aplikacji na platformie DataBricks (Python, Scala, Java).

Projekty mogą dotyczyć całego spektrum pracy z danymi - analiza Big Data, tworzenie data warehouses/ lakes, integracja platformy DataBricks z usługami chmurowymi, analiza danych z urządzeń IoT, Data Governance i Security, projektowanie procesów ETL, zarządzanie cyklem życia modeli ML i wiele innych. Ze względu na to nie poszukujemy osób, które wpasują się w konkretny szablon.

Technologie, które przyciągną naszą uwagę to m.in.: Apache Spark, Kafka, Hive, Hadoop, Kubernetes, Docker, SQL (w szczególności DataBricks SQL), Delta Lake, Jupyter Notebooks, CI/CD Tools (Jenkins, GitLab CI, Azure DevOps), Power BI, Tableau, Qlik, ETL Tools (Apache Nifi, Informatica, Talend).

Początkowy proces będzie składać się ze screeningu z CRODU oraz rozmowy technicznej z DataBricks. Następnym krokiem jest wprowadzenie profilu kandydata do talent poola, z którego dostawca będzie mógł wybierać specjalistów, których aktualnie potrzebuje.


Wymagania:

⚡ Udokumentowane solidne doświadczenie w pracy jako Data Engineer

⚡ Bardzo dobra znajomość platformy DataBricks

⚡ Bardzo dobra znajomość Python/ Java/ Scala

⚡ Znajomość technologii Big Data

⚡ Doświadczenie w korzystaniu z Microsoft Azure (np. Data Factory, Synapse, Logic Apps, Data Lake)

⚡ Doświadczenie w pracy z ustrukturyzowanymi oraz nieustrukturyzowanymi danymi

⚡ Umiejętności interpersonalne i zespołowe

⚡ Umiejętność podejmowania inicjatywy i samodzielność

⚡ Angielski na poziomie umożliwiającym swobodną komunikację w zespole

Mile widziane:

⚡ Doświadczenie w projektowaniu i optymalizacji przepływów danych za pomocą, DBT, SSIS, TimeXtender lub podobnych rozwiązań (ETL, ELT)

⚡ Znajomość rozwiązań AWS oraz GCP


Jak działamy i co oferujemy?

 Stawiamy na otwartą komunikację zarówno w procesie rekrutacji jak i po zatrudnieniu - zależy nam na klarowności informacji dotyczących procesu i zatrudnienia

 Do rekrutacji podchodzimy po ludzku, dlatego upraszczamy nasze procesy rekrutacyjne, żeby były możliwie jak najprostsze i przyjazne kandydatowi 

 Pracujemy w imię zasady "remote first", więc praca zdalna to u nas norma, a wyjazdy służbowe ograniczamy do minimum

 Oferujemy prywatną opiekę medyczną (Medicover) oraz kartę Multisport dla kontraktorów


  • Praca Białystok
  • Białystok - Oferty pracy w okolicznych lokalizacjach


    102 988
    19 648