6/7/2023 - In een eerdere blog in onze AI Act-reeks bespraken we de kansen en risico’s van ChatGPT. De sterke ontwikkeling van 'Large Language Models' (LLM's), zoals ChatGPT en General Purpose AI leidt ertoe dat organisaties hier ook in toenemende mate mee te maken krijgen.  

In de vorige blog benadrukten we dat deze ontwikkeling ethische overwegingen met zich mee brengt en dat er stappen gezet moeten worden om verantwoord gebruik te maken van de kansen van technologie als ChatGPT. In deze blog bespreken we hoe richtlijnen kunnen worden ingezet om een duidelijke lijn binnen uw organisatie uit te zetten en het gebruik van ChatGPT intern bespreekbaar te maken. 

Aanwinst en risico’s 

Dat het gebruik van ChatGPT een enorme aanwinst kan zijn voor een organisatie is niet onopgemerkt gebleven. ChatGPT kan simpele taken overnemen binnen een organisatie zoals het opstellen van e-mails, teksten herformuleren of vertalen en het schrijven van korte stukjes voor marketing doeleinden.  

Toch zijn er ook organisaties huiverig en niet zonder reden. Grote tech-bedrijven vrezen bijvoorbeeld dat door gebruik van ChatGPT bedrijfsgeheimen bij OpenAI, de ontwikkelaar van ChatGPT, terecht kunnen komen. Als gebruiker is er namelijk onvoldoende kennis over waar de ingevoerde gegevens opgeslagen worden. In een recent artikel van de KvK worden ook meerdere risico’s beschreven die gepaard gaan met het gebruik van ChatGPT, zoals risico’s voor auteursrecht, onbetrouwbare teksten en een vertekend beeld van de realiteit dat door ChatGPT geschetst kan worden. Met betrekking tot dat laatste bleek ChatGPT biased te zijn: in een test bleek dat de LLM ervan uitging dat doktoren altijd mannen zijn en verpleegkundigen altijd vrouwen. 

Zakelijk gebruik 

Gezien de risico’s die de KvK identificeert, is zorgvuldig gebruik van ChatGPT vereist. Waar dit bij persoonlijk gebruik vooral in eigen belang is, spelen er bij zakelijk gebruik ook nog externe belangen, zoals die van de organisatie en andere externe partijen. Zo kunnen er persoonsgegevens weglekken of kan er, als de informatie van ChatGPT niet wordt gecontroleerd, misinformatie worden verspreid. Toch maakt er volgens een onderzoek van het Amerikaanse Fishbowl een groot aantal werknemers al eens zakelijk gebruik van ChatGPT, vaak zonder dit te hebben besproken met hun leidinggevende. Om ervoor te zorgen dat bovenstaande risico’s niet leiden tot ongewenste uitkomsten, is het noodzakelijk om het gebruik van ChatGPT bespreekbaar te maken.  

Niet of, maar hoe 

Met de beschikbaarheid van ChatGPT komt ook een scala aan kansen en risico’s. Het idee. Van het ‘niet gebruiken’ van ChatGPT is niet meer aan de orde. In plaats daarvan is het essentieel om de focus te verleggen naar het juiste gebruik ervan, en hiervoor hebben organisaties heldere richtlijnen nodig. Deze richtlijnen dienen de kansen en risico’s duidelijk te belichten en organisaties in staat te stellen om werknemers te begeleiden bij het verantwoord gebruik van ChatGPT.  

Considerati is onlangs begonnen met het opstellen van richtlijnen en kaders rondom het gebruik van ChatGPT, en deelt graag best practices om uw organisatie zo snel en efficiënt mogelijk voor te bereiden op verantwoord gebruik van ChatGPT. 

Heeft u vragen?

Heeft u vragen over bovenstaand onderwerp? Neem contact op met Considerati, wij bieden gespecialiseerd advies en ondersteuning op maat.