De voor- en nadelen van AI

Kunstmatige intelligentie (ofwel AI) heeft snel zijn intrede gedaan in de maatschappij. Bedrijven maken al dan niet bewust gebruik van AI in hun systemen. Medewerkers op hun beurt maken met name gebruik van de Large Language Models (LLMs), zoals ChatGPT, Copilot, Gemini, DALL-E. Het verbieden gaat niet meer lukken en moet je ook niet meer willen. Maar wat kun en zou je dan wel moeten doen?

Nog heel even terug. AI is niet nieuw. Wetenschappers zijn al begonnen met de ontwikkeling ervan in de jaren 60 van de vorige eeuw. Het begon met machine learning, de kapstok term voor AI. Men wilde graag de menselijke intelligentie nabootsen in een machine en dit kon op basis van algoritmes en zelflering. De ontwikkeling van AI ging langzaam. Pas rond 2000 ontstond het zogeheten ‘deep learning’ met behulp van enorme computer snelheden en grote hoeveelheden data om AI te trainen om patronen te kennen. Dit was een echte doorbraak. Dit soort AI wordt gebruikt voor specifieke toepassingen, bijv. om auto’s zelfrijdend te maken. Van hieruit ontstond de general AI, die een bredere toepassing heeft en flexibeler is. Met deze AI kan er echt nieuwe content – denk hierbij aan beeld, geluid en tekst - worden gecreëerd op basis van de data die is ingevoerd. De volgende meest recente stap is de generatieve AI, welke content kan creëren op basis van menselijke instructie, zogenaamde prompts, en daarmee zichzelf kan leren steeds betere antwoorden te geven. En daar zijn we nu.

Vele voordelen. Bedrijven maken echter al een tijdje gebruik van algoritmes en AI voor hun bedrijfsvoering. Algoritmes worden gebruikt om geautomatiseerde besluiten te nemen. Ook kunnen processen met behulp van AI efficiënter en daardoor kostenbesparend worden ingericht, wat een concurrentievoordeel kan opleveren. Het ondersteunen van menselijke taken die op herhaling berusten is een voordeel. Medewerkers kunnen zich dan wijden aan uitdagender en creatiever werk. Zo kan een chatbot de service richting klanten aanzienlijk verbeteren.

Niet zonder risico. AI maakt geen onderscheid tussen goed of slecht, tussen waar of onwaar. Zo zoeken de LLMs alleen in alle documenten en informatie die het heeft en stelt op basis daarvan het meest voor de hand liggende antwoord op de vraag samen. Dit antwoord houdt geen rekening met inbreuken op andermans rechten of privacy. Er kan sprake zijn van uitsluiting, willekeur, oneerlijkheid of discriminatie. Het risico bij het gebruik van persoonsgegevens of bedrijfsgevoelige informatie in AI, is dat het door AI hergebruikt kan worden.

Teksten of andere output zijn mogelijk niet correct of gebaseerd op aannames.

Ook het auteursrecht speelt een grote rol bij AI. Er kan zomaar inbreuk worden gemaakt op het auteursrecht van een ander.

AI Act. Sinds 9 december 2023 vallen AI en algoritmes onder de strenge Europese AI Verordening, ook wel AI Act genoemd. De Act ziet op alle sectoren en alle branches waar AI wordt gebruikt. Het doel van deze regelgeving is dat mensen en bedrijven in de EU kunnen rekenen op veilige, transparante, traceerbare, niet-discriminerende en milieuvriendelijke AI-systemen en onder toezicht van mensen. Vanaf 2026 moet iedereen aan de eisen van de AI Act voldoen.

De Act maakt onderscheid tussen een verboden, hoog of laag risiconiveau. Hoe hoger het risiconiveau, hoe meer verplichtingen er gelden voor de aanbieders en gebruikers. De inschatting van het niveau ligt bij het bedrijf.

Risico Assessment. Bij een hoog risico-systeem kan het nodig zijn een risicoanalyse uit te voeren, een zogeheten AIIA, een AI Impact Assessment. Dit is niet nieuw, want het staat onder andere al in de AVG, waar het Data Protection Impact Assessment (DPIA) genoemd wordt. Wanneer er bij een AI-systeem ook persoonsgegevens zijn betrokken, zal er hoogstwaarschijnlijk een DPIA moeten worden uitgevoerd. In dat geval is het goed beide assessments te combineren.

Overigens kan het ook bij een niet hoog risico-systeem goed zijn een AIIA uit te voeren, al is het maar om goed te snappen wat de AI inhoudt en om te beoordelen of er wel risico's aanwezig zijn, waar iets mee zou moeten.

Transparantie is key. Voor een AI-systeem met een laag risiconiveau, zoals een chatbot, gelden met name transparantieverplichtingen richting de gebruikers. Maak je gebruik van een chatbot, leg het vast in je verwerkingsregister en vermeld het in de privacyverklaring op je website.

Voor je medewerkers, die intern gretig gebruik maken van de LLMs bij hun werkzaamheden, doe je er verstandig aan om te zorgen voor een intern beleid: Van welk AI-systeem mag gebruik worden gemaakt, voor welke doelen mag het gebruikt worden, welke informatie mag hierbij wel en welke mag juist niet gebruikt worden (denk aan bedrijfsgevoelige informatie of persoonsgegevens) en hoe moet er met de output worden omgegaan.

Daarnaast is het belangrijk om de medewerkers regelmatig te trainen op het verantwoorde gebruik van AI. Maak ze bewust van wat het is en wat ermee gedaan kan worden.

Alleen als je bewust omgaat met AI, als organisatie in zijn geheel, kan het gebruik van AI in je voordeel werken.