Werken bij de Immigratie en Naturalisatiedienst (IND) betekent werken in een multidisciplinair en complex beleidsterrein dat voortdurend in de politieke belangstelling staat. Als Machine learning Engineer behandel je thema’s die ertoe doen! Met jouw inzet lever je een belangrijke bijdrage aan de toepassing van data science en AI binnen de IND en daarmee een waardevolle bijdrage aan onze samenleving.
Als Machine learning Engineer werk je nauw samen met Data Engineers, Data Analisten en Data Scientists binnen team Data Expertise Centrum (14 fte) en collega’s vanuit alle directies van de IND. Je zorgt dat de data beschikbaar is in de ontwikkelomgeving voor de data scientists en data analisten.
Als Machine learning engineer kun jij alle ontwikkelingen goed overzien en duiden. Je werkt je effectief samen met een team om de vele vraagstukken op het gebied van data science om te zetten in pragmatische oplossingen. Hierdoor kan de organisatie er optimaal gebruik van maken. Hierbij is het belangrijk dat je proactief werkt.
Bij de IND zijn we volop bezig met de nieuwste ontwikkelingen op het gebied van generatieve AI. We beschikken over een intern GPU-cluster waarmee we geavanceerde modellen kunnen ontwikkelen. Deze technologie willen we inzetten voor diverse toepassingen zoals vertalingen, samenvattingen en nog veel meer. Als Machine learning werk je mee aan het ontwikkelen van AI toepassingen op ons cluster en zorg je ervoor dat deze toepassingen geïmplementeerd kunnen worden in de productieomgeving. Aangezien deze techniek nieuw is zal er ook veel uitgezocht moeten worden en is het van belang dat je goed kan samenwerken met verschillende IT teams.
Dit jaar willen we de waarde van het GPU-cluster aantonen door meerdere AI-toepassingen op te leveren en de AI-behoefte concreter in kaart te brengen. Je speelt een cruciale rol bij het bewijzen van deze nieuwe technieken.
De voornaamste elementen in jouw rol zijn:
- Beheren, door ontwikkelen en optimaliseren van datawarehouses en databases voor efficiënte opslag en toegang tot gegevens en oplossen van issues als deze zich voordoen.
- Extract, Transform, Load (ETL) processen bouwen en onderhouden om gegevens uit verschillende bronnen te verzamelen, om te zetten en op te slaan.
- Het ontwerpen van robuuste data-infrastructuren en -pipelines.
- Verantwoordelijk voor het deployen en beheren van Python-gebaseerde data science- en AI-toepassingen, inclusief het opzetten van kwaliteitsborging (QA).
- Professionaliseren en onderhouden van onze MLOps tooling, zoals GitLab CI/CD-pipelines, Docker-containers en het UbiOps-platform.
- Intensief samenwerken met Data Scientists en Data Analisten om modellen efficiënt en gestroomlijnd naar productie te brengen.
- Onderhouden van contact met collega’s van de infrastructuurteams om technische afhankelijkheden en requirements goed te coördineren.
- Proactief bijdragen aan databeveiligingsvraagstukken, in nauwe samenwerking met het team Informatiebeveiliging en software development.
- Nauwkeurigheid, volledigheid en consistentie van data door middel van validatie- en schoonmaakprocessen.
- Aansluiten bij architectuur overleggen, zodat alle AI- en dataoplossingen voldoen aan de architectuureisen en -richtlijnen van de organisatie.