Informacje o stanowisku
Szukamy Frontend Engineera, który kocha AI i wie, jak sprawić, żeby Large Language Models czuły się naturalnie dla użytkowników. Będziesz budować interfejsy, które przekształcają surowe odpowiedzi LLM w płynne, dopracowane doświadczenia.
To nie jest wrzucenie wywołania API do komponentu React. To architektura informacji, projektowanie animacji, streamingu tekstu, obsługa edge caseów z gracją i dbanie o każdy piksel zgodnie z Design Systemem – nawet gdy odpowiedzi AI są nieprzewidywalne.
Szukamy osób, które rozumieją dlaczego coś działa, nie tylko że działa. Budujemy produkt, który trafi do realnych użytkowników, z realną odpowiedzialnością za jakość, wydajność i utrzymanie kodu przez lata.
Wynagrodzenie:
- 17 000 – 20 000 PLN netto (kontrakt B2B)
- Stawka zależy od poziomu doświadczenia i jakości portfolio
- Transparentny proces oceny – powiemy Ci, gdzie się plasujesz i dlaczego
Tryb pracy:
- Kultura remote-first (biura w Łodzi i Warszawie dostępne dla chętnych)
- Elastyczne godziny (core hours na synchronizację zespołu, reszta do Ciebie)
- Nowoczesny sprzęt (MacBook Pro lub odpowiednik, monitory, akcesoria)
Rozwój i nauka:
- Praca nad projektami AI na czele technologii (będziesz wcześnie przy wzorcach GenAI)
- Budżet na konferencje (uczestnicz, ucz się, networkuj)
- Czas na naukę wbudowany w sprinty (eksperymentuj, psuj rzeczy, ucz się)
- Mały zespół = duży wpływ (Twoja praca bezpośrednio wpływa na kierunek produktu)
Zespół i kultura:
- Współpraca z inżynierami backend i AI (zespół Python/FastAPI)
- Autonomia w decyzjach technicznych (ufamy, że wiesz najlepiej)
- Regularne sesje dzielenia się wiedzą (lunch & learns, tech talks)
1. Doskonałość we frontendzie
Masz 3-5+ lat doświadczenia w budowaniu nowoczesnych aplikacji webowych i znasz Next.js jak własną kieszeń.
- Ekspert w Next.js (App Router, SSR/SSG, Server Components)
- Zaawansowany TypeScript (złożone typy, generics, utility types – Pick<> i Omit<> Cię nie straszą)
- Solidne rozumienie Node.js (API routes, middleware, logika server-side)
- Doświadczenie w optymalizacji wydajności (Core Web Vitals, lazy loading, code splitting)
2. Mistrzostwo w integracji AI
Wdrożyłeś realne produkty integrujące API LLM – nie tylko przerobiłeś tutoriale.
- Budowałeś interfejsy używające API modeli językowych (OpenAI, Anthropic, Gemini, Mistral, Cohere, modele open-source – liczy się doświadczenie, nie konkretny vendor)
- Rozumiesz architektury streamingowe (Server-Sent Events, WebSockets, chunked responses) – i potrafisz zdebugować, gdy stream się urywa
- Znasz ekonomię tokenów (liczenie tokenów, zarządzanie context window, optymalizacja kosztów) – bo płaciłeś za te tokeny w produkcji
- Obsługiwałeś edge casey: rate limits, timeouty, partial responses, error recovery – i wiesz, że 200 OK nie zawsze znaczy sukces
- Implementowałeś zarządzanie konwersacją (historia, zachowanie kontekstu) – rozumiesz, dlaczego naiwne podejście szybko wysadza context window
3. Dyscyplina UI i rzemiosło
Zależy Ci na tym, jak rzeczy wyglądają i działają. Design System to nie ograniczenie – to fundament spójności.
- Wymagany dowód w portfolio: Pokaż projekty, w których implementowałeś Design Systems
- Zwolennik dostępności (minimum WCAG 2.1 AA – semantyczny HTML, ARIA labels, nawigacja klawiaturą)
- Pixel-perfect realizacja projektów z Figmy (zauważasz, gdy spacing jest przesunięty o 2px)
- Budowałeś biblioteki komponentów wielokrotnego użytku (DRY, composition patterns)
- Silne wyczucie wizualne (wiesz, gdy coś "nie gra", nawet jeśli nie umiesz tego wyjaśnić)
Mile widziane (wyróżnisz się)
Kompetencje T-shaped
- Podstawy backendu: projektowanie REST/GraphQL API, bazy danych, cachowanie
- Znajomość Pythona + biblioteki GenAI (LangChain, LlamaIndex, Hugging Face)
- Podstawy DevOps: Docker, CI/CD pipelines, workflow deploymentów
Zaawansowane wzorce AI
- Implementacje RAG (bazy wektorowe, embeddingi, semantic search)
- Wzorce function calling / tool use (pozwalanie LLM na wywoływanie akcji)
- Doświadczenia multimodalne (tekst + obrazy + audio)
- Optymalizacja prompt engineering (few-shot learning, chain-of-thought)
Przywództwo i społeczność
- Mentorowałeś juniorów (code review, pair programming, dzielenie się wiedzą)
- Wkład w decyzje techniczne (dyskusje architektoniczne, propozycje RFC)
- Kontrybucje open source (szczególnie projekty związane z AI – duży bonus!)
- Pisanie lub wystąpienia techniczne (blog, konferencje, tutoriale)
Konkretny stos, który lubimy
- Vercel AI SDK
- LangChain.js
- Biblioteki streamingowe (SSE, WebSockets)
- Biblioteki animacji (Framer Motion, React Spring)
- Shadcn UI, Radix UI lub podobne systemy komponentów
Szukamy Frontend Engineera, który kocha AI i wie, jak sprawić, żeby Large Language Models czuły się naturalnie dla użytkowników. Będziesz budować interfejsy, które przekształcają surowe odpowiedzi LLM w płynne, dopracowane doświadczenia.
To nie jest wrzucenie wywołania API do komponentu React. To architektura informacji, projektowanie animacji, streamingu tekstu, obsługa edge caseów z gracją i dbanie o każdy piksel zgodnie z Design Systemem – nawet gdy odpowiedzi AI są nieprzewidywalne.
Szukamy osób, które rozumieją dlaczego coś działa, nie tylko że działa. Budujemy produkt, który trafi do realnych użytkowników, z realną odpowiedzialnością za jakość, wydajność i utrzymanie kodu przez lata.
Wynagrodzenie:
- 17 000 – 20 000 PLN netto (kontrakt B2B)
- Stawka zależy od poziomu doświadczenia i jakości portfolio
- Transparentny proces oceny – powiemy Ci, gdzie się plasujesz i dlaczego
Tryb pracy:
- Kultura remote-first (biura w Łodzi i Warszawie dostępne dla chętnych)
- Elastyczne godziny (core hours na synchronizację zespołu, reszta do Ciebie)
- Nowoczesny sprzęt (MacBook Pro lub odpowiednik, monitory, akcesoria)
Rozwój i nauka:
- Praca nad projektami AI na czele technologii (będziesz wcześnie przy wzorcach GenAI)
- Budżet na konferencje (uczestnicz, ucz się, networkuj)
- Czas na naukę wbudowany w sprinty (eksperymentuj, psuj rzeczy, ucz się)
- Mały zespół = duży wpływ (Twoja praca bezpośrednio wpływa na kierunek produktu)
Zespół i kultura:
- Współpraca z inżynierami backend i AI (zespół Python/FastAPI)
- Autonomia w decyzjach technicznych (ufamy, że wiesz najlepiej)
- Regularne sesje dzielenia się wiedzą (lunch & learns, tech talks)
,[Będziesz budować interfejsy, które przekształcają surowe odpowiedzi LLM w płynne, dopracowane doświadczenia., Architektura informacji, projektowanie animacji, streamingu tekstu, obsługa edge caseów z gracją i dbanie o każdy piksel zgodnie z Design Systemem – nawet gdy odpowiedzi AI są nieprzewidywalne., Interfejsy czatowe AI z odpowiedziami w czasie rzeczywistym (streaming), Dynamiczne doświadczenia użytkownika adaptujące się do outputów LLM, Narzędzia do generowania treści (tekst, obrazy, interakcje multimodalne), Architektura frontendu skalująca się wraz ze złożonością AI Requirements: Next.js, TypeScript, Node.js, API, LLM, HTML, CSS, Docker, LangChain, HuggingFace, Python, GraphQL, REST, Vercel AI SDK
Praca WarszawaWarszawa - Oferty pracy w okolicznych lokalizacjach