Do naszego zespołu szukamy osoby, która chce rozwijać systemy przetwarzania danych w środowisku Big Data, pracować z nowoczesnym stosem technologicznym (Scala 3, ZIO, Rust) i mieć realny wpływ na kształtowanie rozwiązań wykorzystywanych przez zespoły analityczne. Pracujemy z dużymi wolumenami danych, stawiamy na niezawodność i wydajność – a AI i LLM są ważnym, choć nie jedynym elementem naszej codziennej pracy.
Najczęściej wykorzystywane technologie i narzędzia:
Projektowanie, rozwój i utrzymanie komponentów platformy przetwarzania danych w środowisku Big Data (Hadoop, Kafka, PostgreSQL)
Tworzenie wydajnych i niezawodnych rozwiązań backendowych w języku Scala 3, z wykorzystaniem bibliotek ZIO i Cats
Praca z komponentami systemu pisanymi w Rust – nie wymagamy znajomości, ale część kodu tworzona jest w tym języku
Udział w tworzeniu systemów wykorzystujących modele językowe (LLM) i narzędzia inferencyjne
Współpraca z zespołem analitycznym i biznesowym – analiza wymagań i wdrażanie rozwiązań technicznych
Monitorowanie działania systemu, diagnozowanie problemów oraz reagowanie na incydenty
Dzielenie się wiedzą i aktywna praca zespołowa
requirements-expected :
Programujesz w Scali i znasz ekosystem ZIO i/lub Cats(lub masz solidne doświadczenie w Javie i chcesz rozwijać się w kierunku Scali – komercyjne doświadczenie nie jest wymagane)
Masz doświadczenie w pracy z systemami przetwarzania danych (Kafka, PostgreSQL, Hadoop)
Znasz podstawy DevOps i pracy z narzędziami takimi jak Kubernetes, Docker, Ansible, ArgoCD
Chcesz rozwijać się w kierunku wydajnych systemów backendowych oraz języka Rust
Interesujesz się AI/LLM – nawet jeśli nie masz jeszcze praktycznego doświadczenia