AI moet open zijn

AI moet open zijn

In alle toekomstige fases van digitale transformatie en innovatie speelt AI een cruciale rol. Minder ‘spannende’ vormen van AI, zoals predictive forecasting, worden al breed ingezet zonder al te veel poeha. Wat generatieve AI juist zo spannend maakt, is het vermogen om niet alleen iets te voorspellen, maar daadwerkelijk iets nieuws te creëren. Dit vraagt om een moment van reflectie. Want al is deze technologie een strategische noodzaak voor de concurrentiepositie, een verkeerde aanpak bereikt het tegenovergestelde.

AI wordt meer en meer onderdeel van bedrijfskritische processen, van financiële besluitvorming tot klantcontact. En net zoals je verwacht dat voorspellende modellen met correcte prognoses komen, wil je dat generatieve modellen bijvoorbeeld correct omgaan met klantvragen. Maar het is niet altijd duidelijk hoe AI-modellen met bepaalde uitkomsten komen. Zeker niet als je diensten gebruikt van aanbieders die de werking van hun modellen niet openbaren. Dat is ook precies wat bedrijven nodig hebben om AI verantwoord en veilig te implementeren: transparantie en openheid.

De beste data

Het moge duidelijk zijn dat verantwoordelijk AI-gebruik betekent dat je mensen niet doelbewust misleidt met nepnieuws of ‘alternatieve feiten’. Het sluipende gevaar is echter dat je dit onbewust doet. Aan de basis van verantwoordelijke AI ligt daarom een diepgaand inzicht in de data die ten grondslag ligt aan modellen. Dit is een primaire verantwoordelijkheid voor de producenten van AI-oplossingen. Om het gechargeerd te stellen, een mkb-afnemer van zo’n oplossing moet erop kunnen vertrouwen dat zijn klanten bijvoorbeeld niet worden geconfronteerd met foutieve antwoorden omdat het model op onvoldoende of verkeerde data is getraind.

Er is dus allereerst een grote behoefte aan helderheid over de herkomst, het gebruik en het beheer van de data die wordt gebruikt om AI-modellen te trainen. Het op waarde schatten van eigen data en modellen, gecombineerd met een transparante en betrouwbare aanpak, vormt een speerpunt binnen dit domein. Producenten moeten de gevaren van data kunnen herkennen en helpen om deze te voorkomen, zoals deepfakes en fake news. En wat als deze AI-gegenereerde onzin weer wordt hergebruikt om nieuwe modellen te trainen? Het is belangrijk dat de angst en onzekerheid rond AI wordt weggenomen – en dat kan alleen door transparantie, door te laten zien hoe AI-output tot stand is gekomen.

Maak je eigen model

Er gaat ontzettend veel aandacht uit naar de grote spelers in de AI-branche. Ze ontwikkelen stuk voor stuk ontzettend krachtige producten. Maar deze modellen zijn niet per se optimaal geschikt voor een individuele organisatie; de uiteenlopende trainingsdata zorgt voor een model dat van alles een beetje weet, maar niet de expertise in huis heeft om branchespecifieke vragen op het gewenste niveau te beantwoorden.

Het kan in dat geval beter zijn om je eigen model te trainen op basis van je eigen data en intellectueel eigendom. Daarmee is ook concurrentievoordeel te behalen: door je eigen data en je eigen modellen te gebruiken, is de AI-output onderscheidend van generieke modellen die door iedereen worden gebruikt. Je maakt immers gebruik van jouw eigen, unieke intellectuele eigendom.

Als je het maakt, maak het dan open

Het gevaar van gesloten AI-modellen is dat je als gebruiker de werking niet kan valideren en de output lastig kunt verifiëren. Met andere woorden: je gooit er iets in en je moet maar vertrouwen op wat eruit komt. En dat is juist een grote bron van het wantrouwen rond AI.

Open source-modellen zijn een alternatief om de benodigde transparantie en openheid te krijgen. Omdat je de broncode kunt bestuderen, kun je de werking valideren. Ook kun je de databronnen controleren die zijn gebruikt voor het trainen van het model. En een gedegen beoordeling van zowel model als trainingsdata leidt tot meer vertrouwen in de output.

Training en beheer van eigen modellen wordt ook kostenefficiënter dankzij open source-intiatieven zoals InstructLab. Door het makkelijker te maken om kennis toe te voegen aan modellen via de InstructLab-community, kan de trainingsfase tegen aanzienlijk lagere kosten en in sterk verkorte tijd worden voltooid.

Bovendien is de open source-gemeenschap een gigantische bron van innovatie. Wanneer je voorbij commerciële oplossingen kijkt naar gemeenschappen zoals Hugging Face, zie je pas hoe enorm veel er wordt ontwikkeld. En de deelnemers zijn de minsten niet: grote bedrijven zoals Meta (het moederbedrijf van Facebook), IBM en NVIDIA zijn allemaal actief in de Hugging Face-gemeenschap. Ook de AI Alliance van onder meer IBM, Intel, Red Hat en de Technische Universiteit München zet zich in voor meer transparantie in AI.

Geen product maar strategische pijler

Een laatste slotgedachte: bekijk AI niet als een product. Bekijk het als een verzameling aan tools en processen die – mits verantwoord ingezet – duurzame bedrijfsgroei bevorderen. Verantwoorde inzet betekent een open en transparante benadering, met veel aandacht voor de data die wordt gebruikt voor de training van modellen en duidelijkheid over de werking van een model. Dit is uiteindelijk nodig om vertrouwen te creëren in het gebruik van AI en verdere innovatie mogelijk te maken.