Do Zakładu Bezpieczeństwa i Przejrzystości Sztucznej Inteligencji poszukujemy dwóch osób na stanowisko Specjalisty /-stki ds. bezpieczeństwa systemów AI, które będą pracować nad bezpieczeństwem nowoczesnych modeli generatywnych, w tym dużych modeli językowych.
Naszą misją jest rozwijanie metod wykrywania podatności, opracowywania technik obronnych oraz zwiększania przejrzystości działania modeli AI. Zespół pracuje zarówno nad rozwiązaniami praktycznymi, jak i publikacjami wiodących konferencji naukowych (np. NeurIPS, CVPR, ACL). W szczególności zapraszamy do wzięcia udziału w rekrutacji osoby zainteresowane doktoratem.
Pracujemy nad technologiami, które mają realny wpływ na praktyczne wdrożenia AI, jednocześnie zachowując wysoką jakość naukową i publikacyjność.
responsibilities :
Zabezpieczanie modeli generatywnych oraz rozwijanie metod zwiększających transparentność systemów AI
Opracowywanie i testowanie metod wykrywania podatności, w tym ataków adwersarialnych, halucynacji modeli, wycieków danych czy reward hackingu
Projektowanie i rozwój narzędzi open‑source związanych z bezpieczeństwem systemów AI
Przygotowywanie raportów technologicznych i publikacji naukowych oraz prezentowanie wyników badań na konferencjach
Współpraca z zespołami badawczymi w Polsce i za granicą
requirements-expected :
Wykształcenie wyższe techniczne (informatyka, sztuczna inteligencja lub kierunki pokrewne) lub status studenta na ostatnim etapie studiów
Zainteresowanie tematyką bezpieczeństwa systemów AI i chęć rozwoju w tym obszarze
Praktyczna znajomość metod uczenia maszynowego, szczególnie w kontekście modeli generatywnych
Biegła znajomość języka Python oraz doświadczenie pracy z bibliotekami ML (PyTorch / TensorFlow)
Umiejętność analitycznego i krytycznego myślenia
Dobra znajomość języka angielskiego umożliwiająca czytanie dokumentacji technicznej i publikacji naukowych