Als AI Safety & Security Researcher bij het AI Safety & Security Lab help je toezicht op complexe AI in Nederland en Europa vormgeven. Je onderzoekt waar de techniek nu écht staat, welke risico’s daaraan verbonden zijn en wat dat betekent voor toezicht, beleid en samenleving.
Je werkt aan eigen onderzoeken om de stand van de techniek te doorgronden, ondersteunt toezichtsonderzoeken die juridisch gebruikt kunnen worden, en draagt bij aan “toezicht aan de voorkant” door kennis te delen en partijen te adviseren. Je springt bij waar nodig: van korte verkenningen tot diepgaande casuïstiek, en van het lezen van papers tot het meepraten in overleggen met andere toezichthouders.
Je maakt deel uit van een klein, interdisciplinair team. Je ziet kansen en risico’s, pakt die op zonder dat je erom gevraagd hoeft te worden, neemt anderen mee in je keuzes en bent open en transparant over de voortgang.
Belangrijke taken zijn:
- Het volgen en duiden van wetenschappelijke, technologisch, markt- en beleidsontwikkelingen rond AI en AI-risico’s.
- Het uitvoeren van literatuur- en praktijkonderzoek naar (systemische) risico’s van AI, inclusief generatieve modellen.
- Het vertalen van onderzoeksresultaten naar concrete adviezen voor toezicht, beleid en toepassing van de AI-verordening.
- Het inhoudelijk ondersteunen van toezichtsonderzoeken met analyses, duidingen en rapportages.
- Het delen van kennis, zowel binnen als buiten, denk aan notities, presentaties, deelname aan overleggen, bijdragen aan experimenten/sandboxes.