Volg Software Zaken

Beleid ICT Institute voor ChatGPT en andere AI

| Sieuwert van Otterloo | Artificial Intelligence

Het gebruik van nieuwe ChatGPT-modellen geeft risico’s, die je kunt beheersen met een AI beleid of AI policy. Dit artikel is het beleid van ICT Institute. Het is zo geschreven dat andere organisaties het kunnen gebruiken als voorbeeld.

Waarom AI-beleid

In november 2022 heeft het bedrijf OpenAI de dienst ChatGPT gelanceerd. Dit model was voor veel mensen de kennismaking met Large Language models: nieuwe, heel krachtige en heel gebruiksvriendelijke AI-modellen. Sindsdien leeft het onderwerp AI bij heel veel mesen. Iedereen wil weten wat AI precies kan en graag zelf aan de slag. Veel mensen zien ook de risico’s vam AI en willen dat er duidelijke regels zijn voor gebruik.

Inmiddels zijn er meerdere modellen en meerdere toepassingen voor AI. Bekende modellen zijn:

Het bijzondere aan deze nieuwe diensten is dat ze heel eenvoudig zijn in het gebruik. Bedrijven hoeven deze modellen niet in te richten of te trainen voordat ze kunnen worden gebruikt. Het voordeel is dat elke medewerker hiermee veel sneller kan werken. Het nadeel is dat de inzet van AI niet door een eigen IT-afdeling wordt gecontroleerd. Iedere persoon kan zelf direct AI gebruiken. Het is belangrijk dat iedereen die dit doet daar verstandig mee omgaat en dus de regels in dit beleid volgt.

Principes voor het gebruik van AI

Bij elk AI-gebruik moet iedereen zich aan de volgende principes houden:

  1. Deel geen geheime informatie met AI. Alle AI-bedrijven verzamelen data die ze gebruiken in grote datasets, en gebruiken deze verder. Zorg dat je geen persoonlijke details, wachtwoorden of namen deelt met AI.
  2. Controleer de uitkomsten. Veel AI-modellen bedenken antwoorden die er goed uitzien maar niet hoeven te kloppen. Ook kan de data waarmee het AI-model gemaakt is verouderd zijn of fouten bevatten. Controleer dus altijd of de tekst die je wilt gebruiken ook klopt.
  3. Respecteer artiesten en auteursrecht. Het is mogelijk maar niet toegestaan om AI te vragen om nog levende artiesten na te doen, of iets te maken wat afgeleid is van bestaand werk. Dit is een schending van auteursrecht. Let daarom goed op wat je aan een model vraagt en of de resultaten niet teveel lijken op bestaand werk.
  4. Wees transparant. Als je AI-uitkomsten of hulp gebruikt, maak dit dan ook duidelijk aan de ontvanger. Je mag geen AI-werk doorgeven als eigen werk, of stiekem AI gebruiken.

AI en teksten

Een mogelijke toepassing van AI is het maken van teksten voor een website, brochure van een ander document. Dit is een goed idee als het om voorbeeld-teksten gaat, om een nieuwe layout te laten zien. Als de teksten echt gebruikt gaan worden, moet iemand deze controleren. Als er feiten gegeven worden , controleer dan bijvoorbeeld met Wikipedia of deze kloppen. Als er boektitels en auteurs genoemd worden, controleer of de boeken echt bestaan. Als er recepten in staan, zorg dan dat deze veilige ingrediënten gebruiken en tot een goed resultaat leiden. Pas extra op als er advies gegeven wordt. De adviezen moeten geen kwaad kunnen en onderbouwd zijn. Let extra op met gezondheidsadvies en financieel advies: dit mag je alleen geven als je er echt verstand van hebt, en dat heeft AI niet.

AI en foto’s

Een belangrijk AI-probleem zijn deep-fakes. Dit zijn echt lijkende foto’s die geheel door AI zijn gemaakt. Een bekend voorbeeld is de afbeelding van de paus in deze witte jas. Deze afbeelding is gemaakt door de AI-foto-dienst van Midjourney en is zelf onderwerp van nieuws geweest en wordt dus door CNN gebruikt. CNN zelf heeft duidelijk op de foto gezet dat het gaat om een AI-foto, om misverstanden en verkeerd gebruik te voorkomen.

Je mag geen mensen misleiden door ze dit soort foto’s te laten zien. Gebruik alleen AI-foto’s als het voor iedereen duidelijk is dat het AI is.

AI en beslissingen

Steeds meer organisaties gebruik AI voor het nemen van besluiten, bijvoorbeeld of iemand geschikt is voor een functie, of iemand mogelijk fraude pleegt, en of iemand klant mag worden en hoeveel deze persoon moet betalen. De gevolgen van een verkeerd besluit kunnen heel vervelend zijn, en daarom zijn er ook strenge regels voor gebruik van AI voor besluiten over mensen:

  • Het moet duidelijk zijn voor mensen hoe besluiten worden genomen en dus ook of er AI wordt gebruikt.
  • Er moet sprake zijn van menselijk toezicht (Engels: ‘human in the loop’). Iemand moet kijken naar het systeem en de uitkomsten en ingrijpen bij fouten.
  • Mensen moeten kunnen vragen om inzage en correctie, en verkeerde besluiten moeten worden gecorrigeerd.
  • AI-systemen mogen niet discrimineren op geslacht, leeftijd, afkomst en andere niet relevante persoonlijk kenmerken. AI-systemen moeten hierop zijn getest.
  • Mensen moeten kunnen aangeven dat ze niet door een AI-systeem worden beoordeeld en om een handmatige (her-)beoordeling kunnen vragen

Deze eisen volgen uit de AVG en gelden dus nu al voor elk systeem. Er wordt gewerkt aan een nieuwe AI-wet (de AI act) waarin mogelijk extra eisen komen.

AI op scholen en universiteiten

Als student mag je gaan AI gebruiken bij het maken van opdrachten, tenzij het duidelijk bij de opdracht is aangegeven dat AI toegestaan is. Het gebruik van AI maakt het namelijk moeilijk voor docenten om de vaardigheden van studenten goed te beoordelen en om goede feedback te geven. Docenten mogen AI gebruiken voor het maken van toetsen als ze dat duidelijk aangeven. Docenten die nakijken met AI moeten zich ervan bewust zijn dat AI veel fouten maakt en kan discrimineren, en de uitkomsten dus handmatig controleren.

De meeste universiteiten zijn bezig om nog duidelijkere regels te maken over het gebruik van ChatGPT en fraude. Een mooi voorbeeld is de Handreiking ChatGPT  van de Hogeschool Utrecht.

Gebruik en vragen over dit beleid?

Je mag dit artikel vrij gebruiken als AI-beleid of als startpunt van je eigen beleid. Het gebruik is toegestaan onder een zogeheten Creative Commons licentie. ls je vragen hebt over dit beleid of hulp wil bij het ontwikkelen van een eigen beleid, bel of mail gerust met ICT Institute.

Bron afbeelding: Github Copilot. 

Ontwikkelen van AI

Deze paragraaf gaat alleen over het ontwikkelen van eigen AI-toepassingen en hoort niet bij het beleid voor gebruik van AI. Echter:  ook bij het ontwikkelen van AI-systemen zijn er veel risico’s en hieronder zijn wat aanwijzingen die helpen bij verantwoorde ontwikkeling.

  • Je mag persoonsgegevens alleen gebruiken voor het doel waarvoor ze verzameld zijn. Controleer vooraf of gebruik in een AI-systeem is toegestaan
  • Je moet zorgen voor goede informatiebeveiliging van het AI-systeem en de data die wordt gebruikt
  • Je moet de principes van privacy by design toepassen. Dit doe je bijvoorbeeld door het anonimiseren van data, niet meer data gebruiken dan nodig, data niet langer bewaren dan nodig en niet meer data tonen dan nodig.
  • Je moet een AI-systeem goed testen, onder andere op eerlijkheid en discriminatie. Goede adviezen hiervoor staan in het artikel over algorithmic bias.
  • Vaak zul je een Data Protection Impact Assessment moeten doen voordat je het AI-systeem mag gebruiken.

Er wordt nagedacht, door ons en door andere experts, over goede manieren om AI-systemen te auditen. Zie hiervoor de checklist auditing AI systems.

 

Author: Sieuwert van Otterloo
Dr. Sieuwert van Otterloo (CISA, CIPP/E) is IT-deskundige met kennis van ISO 27001, NEN 7510, software-kwaliteit, projectmanagement, privacy, en verantwoord gebruik van AI. Hij geeft les aan de VU, doet onderzoek aan de HU en geeft advies en doet reviews bij organisaties door heel Nederland. Hij oprichter en directeur van ICT Institute.