Informacje o stanowisku
Oferujemy
- Stawkę 150–170 PLN/h (B2B)
- 100% pracę zdalną w elastycznych godzinach
- Nowoczesny stack technologiczny i pracę nad dużą skalą danych
- Realny wpływ na architekturę i kierunek rozwoju projektu
- Współpracę ze świetnymi specjalistami w międzynarodowym środowisku
Szukamy doświadczonego Senior Data Engineera, który odnajduje się zarówno w inżynierii danych, jak i w pracy z API. Jeśli masz doświadczenie w budowaniu i optymalizacji pipeline’ów danych w PySpark i SQL, znasz Databricks i dobrze czujesz się w środowiskach chmurowych, to ta rola jest dla Ciebie.
Pracujemy nad rozwojem nowoczesnej platformy danych, opartej na Databricks i SQL, budując rozwiązania, które łączą świat inżynierii danych i API developmentu.
Wymagania
- Minimum 5 lat doświadczenia w inżynierii danych
- Bardzo dobra znajomość Python, PySpark, SQL
- Biegłość w pracy z Databricks (Unity Catalog, AutoLoader, Delta tables)
- Doświadczenie z FastAPI lub innymi frameworkami do tworzenia API
- Znajomość PostgreSQL, DBT, Airflow lub Prefect
- Praktyczna znajomość przynajmniej jednej chmury (Azure / AWS / GCP)
- Doświadczenie z narzędziami CI/CD (Azure DevOps, GitHub Actions)
- Umiejętność pracy w metodykach Agile/Scrum
- Dobra znajomość języka angielskiego (min. B2)
Mile widziane
- Znajomość Terraform lub AWS CDK
- Doświadczenie w architekturze rozwiązań data-opsowych
- Praktyka z Docker, Kubernetes
- Doświadczenie w projektach multi-cloud
Oferujemy
- Stawkę 150–170 PLN/h (B2B)
- 100% pracę zdalną w elastycznych godzinach
- Nowoczesny stack technologiczny i pracę nad dużą skalą danych
- Realny wpływ na architekturę i kierunek rozwoju projektu
- Współpracę ze świetnymi specjalistami w międzynarodowym środowisku
,[Twoje zadania, Tworzenie i rozwój pipeline’ów danych w środowisku Databricks z użyciem PySpark i SQL, Integracja danych z wielu źródeł (bazy, pliki, API) i ich dalsze przetwarzanie, Projektowanie oraz utrzymanie API (FastAPI) wspierających integracje danych, Automatyzacja i deployment procesów danych (CI/CD, Terraform, DevOps), Optymalizacja wydajności oraz jakości kodu i procesów, Współpraca z zespołami Data Science, BI i DevOps Requirements: Databricks, FastAPI, Python, PySpark, SQL, Docker Tools: Agile, Scrum. Additionally: Remote work, Sport subscription, Training budget, Private healthcare, Flat structure, Small teams, International projects, In-house trainings, In-house hack days, Startup atmosphere, No dress code.
Praca PoznańSpecjalista ds. telekomunikacji PoznańSpecjalista ds. PR PoznańSpecjalista ds. ofertowania PoznańSpecjalista ds. Zarządzania PoznańSpecjalista ds. Eksportu PoznańSpecjalista ds. Sprzedaży PoznańSpecjalista ds. Zakupów PoznańSpecjalista ds. marketingu PoznańSpecjalista ds. transportu PoznańSpecjalista ds. HR PoznańPoznań - Oferty pracy w okolicznych lokalizacjach