ChatGPT heeft een enorm privacyprobleem

Toen OpenAI werd uitgebracht GPT-3 In juli 2020 heb ik een momentopname gemaakt van de gegevens die zijn gebruikt om het grote taalmodel te trainen. Miljoenen pagina’s die van internet zijn geschraapt, Reddit-berichten, boeken en meer werden gebruikt om het generatieve tekstsysteem te maken, volgens een technisch document. Deze gegevens omvatten een deel van de persoonlijke informatie die u online over uzelf deelt. Deze gegevens brengen OpenAI nu in de problemen.

Op 31 maart vaardigde de Italiaanse datatoezichthouder een tijdelijk noodbevel uit waarin OpenAI werd verplicht te stoppen met het gebruik van de persoonlijke informatie van miljoenen Italianen die in zijn trainingsgegevens was opgenomen. Volgens de toezichthouder, Garante per la Protezione dei Dati Personali, heeft OpenAI geen wettelijk recht om de persoonlijke informatie van mensen in ChatGPT te gebruiken. Als reactie hierop heeft OpenAI mensen in Italië de toegang tot zijn chatbot ontzegd, terwijl het antwoord geeft aan ambtenaren, die verder onderzoek doen.

De actie is de eerste tegen ChatGPT door een westerse toezichthouder en benadrukt privacyspanningen rond het creëren van gigantische AI-modellen, die vaak worden getraind op enorme hoeveelheden internetgegevens. Net zoals artiesten en mediabedrijven hebben geklaagd dat ontwikkelaars van generatieve AI hun werk zonder toestemming hebben gebruikt, zegt de datatoezichthouder nu hetzelfde voor de persoonlijke informatie van mensen.

Soortgelijke beslissingen zouden in heel Europa kunnen volgen. In de dagen nadat Italië zijn onderzoek had aangekondigd, namen gegevenstoezichthouders in Frankrijk, Duitsland en Ierland contact op met Garante om meer informatie te vragen over zijn bevindingen. “Als het bedrijfsmodel is om het internet af te speuren naar alles wat je kunt vinden, zou er hier een heel belangrijk probleem kunnen zijn”, zegt Tobias Godin, hoofd internationale zaken bij de Noorse gegevensbeschermingsautoriteit, die de ontwikkelingen volgt. Godin voegt eraan toe dat als een model is gebouwd op gegevens die mogelijk illegaal zijn verzameld, dit de vraag oproept of iemand de tools legaal kan gebruiken.

De klap van Italië voor OpenAI komt nu het onderzoek naar grote AI-modellen exponentieel groeit. Op 29 maart riepen technologieleiders op tot stopzetting van de ontwikkeling van systemen zoals ChatGPT, uit angst voor de toekomstige gevolgen. Godin zegt dat het Italiaanse besluit meer directe zorgen aan het licht brengt. “In wezen zien we dat de ontwikkeling van AI tot nu toe een enorm nadeel kan hebben”, zegt Godin.

Italiaans werk

De Europese GDPR-regels, die betrekking hebben op de manier waarop organisaties persoonlijke gegevens van mensen verzamelen, opslaan en gebruiken, beschermen de gegevens van meer dan 400 miljoen mensen op het hele continent. Deze persoonlijke gegevens kunnen van alles zijn, van iemands naam tot hun IP-adres – als ze kunnen worden gebruikt om iemand te identificeren, kunnen ze als persoonlijke gegevens worden beschouwd. In tegenstelling tot de lappendeken van privacyregels op staatsniveau in de VS, zijn de beschermingen van de Algemene Verordening Gegevensbescherming (AVG) van toepassing als de informatie van mensen vrij online beschikbaar is. Kortom: alleen omdat iemands informatie openbaar is, wil nog niet zeggen dat je het kunt dumpen en ermee kunt doen wat je wilt.

Het Italiaanse Garante is van mening dat ChatGPT vier problemen heeft onder de AVG: OpenAI heeft geen leeftijdscontroles om te voorkomen dat mensen onder de 13 jaar het tekstgeneratiesysteem gebruiken; kan onjuiste informatie over mensen verstrekken; Mensen kregen niet te horen dat hun gegevens waren verzameld. Misschien wel het belangrijkste is dat zijn vierde argument beweert dat er geen “wettelijke basis” is voor het verzamelen van persoonlijke informatie van mensen in de enorme hoeveelheid gegevens die wordt gebruikt om ChatGPT te trainen.

“De Italianen bluffen”, zegt Lillian Edwards, hoogleraar recht, innovatie en maatschappij aan de Universiteit van Newcastle in het Verenigd Koninkrijk. “Het leek heel duidelijk in de Europese Unie dat dit een inbreuk was op de wetgeving inzake gegevensbescherming.”

Kommentar veröffentlichen

Neuere Ältere

نموذج الاتصال