Privacyrisico's bij het gebruik van ChatGPT

ChatGPT en de AVG: Hoe kan uw bedrijf de privacyrisico’s bij het gebruik van ChatGPT inperken?

  • event 24-07-2024
  • schedule 08:00
  • timer 3 minuten

Waarschijnlijk wordt ChatGPT al veelvuldig gebruikt binnen uw bedrijf, bijvoorbeeld voor het schrijven van een marketingbericht of in het kader van de klantenservice. Uiteraard is ChatGPT erg handig, maar heeft u zich wel eens afgevraagd of de privacy van uw klanten of medewerkers wel worden gewaarborgd door de chatbot? In deze blog geven wij u concrete handvaten om de privacyrisico’s die spelen bij het gebruik van ChatGPT in te perken.

In onze vorige blog hebben we beschreven dat de AVG van toepassing is als er persoonsgegevens worden ingevoerd in de chatbot. In dat geval kan het bedrijf dat gebruikmaakt van ChatGPT worden aangemerkt als verwerkingsverantwoordelijke en ChatGPT (althans OpenAI) als verwerker.

Als verwerkingsverantwoordelijke bent u dan verplicht om de privacyrisico’s van ChatGPT te inventariseren en deze privacyrisico’s zoveel als mogelijk in te perken met passende maatregelen.

Privacyrisico's van ChatGPT

Bij het gebruikmaken van ChatGPT bestaan er verschillende privacyrisico’s. Wanneer persoonsgegevens van klanten in ChatGPT worden ingevoerd komen deze klantgegevens op de servers van ChatGPT terecht. OpenAI gebruikt deze klantgegevens (onder meer) om haar modellen te trainen (voor zover de gebruiker dit niet heeft uitgeschakeld). Tenzij de klant hiervoor toestemming heeft gegeven, bestaat voor deze verdere verwerking van persoonsgegevens mogelijk geen juridische grondslag en is er sprake van strijd met het doelbindingsbeginsel. Ook kan deze verdere verwerking van persoonsgegevens in strijd zijn met het beginsel van dataminimalisatie. Tot slot kunnen de opgeslagen klantgegevens in handen komen van onbevoegden (door een datalek).

In sommige gevallen zijn bedrijven verplicht om een Data Protection Impact Assessment (DPIA) uit te voeren, bijvoorbeeld als er gevoelige en/of op grootschalige wijze persoonsgegevens worden verwerkt in ChatGPT.

Een DPIA is een instrument om de privacyrisico’s van een gegevensverwerking in kaart te brengen en passende (beveiligings)maatregelen te nemen om deze privacyrisico’s in te perken. Ook wanneer dit niet verplicht is gesteld, kan het uitvoeren van een DPIA verstandig zijn.

Het inperken van de privacyrisico’s van ChatGPT

De meest veilige optie is om geen (direct of indirect herleidbare) persoonsgegevens in te voeren in ChatGPT. Op deze wijze bestaan er geen privacyrisico’s en hoeft uw bedrijf niet te voldoen aan de verplichtingen uit de AVG.

Mocht het invoeren van persoonsgegevens niet vermeden kunnen worden, dan zou uw bedrijf de volgende maatregelen kunnen treffen om de privacyrisico’s in te perken en zoveel als mogelijk te voldoen aan de verplichtingen uit de AVG:

1. Dataminimalisatie

Uitsluitend persoonsgegevens invoeren wanneer dit nodig is voor het doeleinde. Indien de ‘gewone versie’ van ChatGPT wordt gebruikt, dan raden wij aan om bij instellingen de optie ‘het model verbeteren voor iedereen’ uit te schakelen, zodat de persoonsgegevens niet worden gebruikt om modellen te trainen.

2. Geen gevoelige persoonsgegevens invoeren

Verder is het verstandig om geen bijzondere categorieën persoonsgegevens (zoals medische gegevens) of gevoelige persoonsgegevens (bijvoorbeeld een BSN) in te voeren in ChatGPT. ChatGPT is (op dit moment) namelijk niet ingericht op het verwerken van dergelijke gegevens en de daarmee gepaard gaande risico’s.

3. Het sluiten van een verwerkersovereenkomst met OpenAI

Op grond van de AVG zijn bedrijven verplicht om een verwerkersovereenkomst te sluiten met OpenAI (als verwerker). Bedrijven kunnen – indien gebruik wordt gemaakt van de business versies van ChatGPT - via de website van ChatGPT een verwerkersovereenkomst sluiten met OpenAI.

4. Het treffen van beveiligingsmaatregelen

Neem beveiligingsmaatregelen die privacyrisico’s bij het gebruik van ChatGPT (kunnen) verminderen, zoals het inschakelen van multi-factor-authenticatie (via instellingen).

5. Het instrueren van medewerkers

Geef personeel duidelijke instructies over het gebruik van ChatGPT en welke gegevens wel en niet mogen worden ingevoerd.

6. Het informeren van betrokkenen

Het is van belang om te zorgen dat klanten, medewerkers en andere personen van wie persoonsgegevens worden ingevoerd in ChatGPT daarvan op de hoogte zijn. Zij moeten op de hoogte zijn dat uw bedrijf persoonsgegevens deelt met OpenAI. Deze informatie kunt u opnemen in uw privacy statement.

Tot slot

Bent u van plan om ChatGPT te gebruiken binnen uw bedrijf en wilt u meer informatie over de privacyregels waaraan uw bedrijf moet voldoen? Of wilt u meer weten over de (mogelijke) privacyrisico’s die zijn verbonden aan het gebruik van ChatGPT en het inperken ervan? Neem dan contact op met Hillie Lunter, Tom Klatter of Esther van den Worm. Verder kunt u ook onze algemene ICT-recht pagina en privacyrecht pagina raadplegen.

Delen
Geschreven door:

Hillie Lunter (advocaat sinds 2005) wordt regelmatig benoemd als curator in faillissementen. Zij behaalde de post-academische opleiding Insolventierecht aan de Rijksuniversiteit Groningen en de specialisatieopleiding Vennootschaps – en Ondernemingsrecht bij Grotius. Hillie Lunter is voorzitter van de Raad van Toezicht van de Stichting Maatschappelijke Onderneming Smallingerland (M.O.S.), lid van VNO NCW Noord, waar zij lid is van de Noordgang Drachten Dokkum Oosterwolde. Ook is Hillie lid van Vereniging Privacy Recht.


Geschreven door:

Klik voor meer blogs over Privacyrecht

Neem contact op

Klik hier voor het privacybeleid van Yspeert advocaten n.v.