2min Security

De toekomst van veilige AI

De toekomst van veilige AI

AI-assistenten zoals ChatGPT maken ondanks hun indrukwekkende prestaties af en toe heel basale fouten. Dat zorgt voor schade aan mensen. Wat kunnen we doen om AI veiliger te maken? 

Natasha Alechina, hoogleraar Safe and Responsible AI bij de faculteit Bètawetenschappen van de Open Universiteit, onderzoekt deze vraag in haar oratie getiteld: ‘Can we make AI safe?’

Artificial Intelligence maakte de afgelopen tien jaar snelle vorderingen en speelt een steeds belangrijker rol in de maatschappij, stelt Alechina. De meeste vorderingen zijn te danken aan de ontwikkeling van deep learning en de toenemende beschikbaarheid van enorme hoeveelheden data en rekenkracht.

Eerdere benaderingen van AI maakten veel meer gebruik van symbolische benaderingen, waarbij code werd geschreven door menselijke programmeurs. Dit is moeilijk voor complexe taken, maar dit maakt het makkelijker om aan te tonen dat het AI-systeem veilig is.

Veiligheid

Echter, de toepassing van machine learning-technieken loopt vast in veiligheidskritische gebieden. Robotvoertuigen hebben een onaanvaardbaar ongevallenpercentage en menselijke piloten zijn nog niet te vervangen door zelfvliegende vliegtuigen. 

Alechina: “Het probleem is dat we niet weten wat systemen die gebaseerd zijn op leren, hebben geleerd.” Language Learning Models (LLM’s), waarvan ChatGPT een voorbeeld is, hebben de neiging om dingen te verzinnen. Dit worden ook wel hallucinaties genoemd. ‘De oorzaak hiervan is dat LLM’s niet factive zijn, met andere woorden, ze weten het verschil niet tussen waarheid en onwaarheid’.

Wat kunnen we doen?

ChatGPT is een voorbeeld van een generatieve AI. Dit is een vorm van artificial intelligence die geautomatiseerd content creëert, op basis van ‘prompts’ (vragen of verzoeken van gebruikers). Generatieve AI is moeilijker van tevoren te beperken, tijdens de training.

Het is wel mogelijk om formele verificatietechnieken toe te passen óp de gegenereerde content. Als generatieve AI bijvoorbeeld een medisch behandelplan produceert, is het mogelijk om te verifiëren of het voldoet aan de richtlijnen die zijn voorgeschreven.

Toekomstvisie

In haar onderzoek is Alechina van plan om veilige generatieve AI te ontwikkelen. Ze wil hierbij de flexibiliteit en het gemak van het genereren van inhoud met generatieve AI en leren in het algemeen combineren met de nauwkeurige formele garanties die door symbolische benaderingen worden geboden. Ze hoopt door deze twee verschillende benaderingen samen te brengen, dat een meer robuust, betrouwbaar, veilig en vertrouwd AI gaat ontstaan.