L’association noyb (None of Your Business), dirigée par Max Schrems, a déposé une plainte contre OpenAI, accusant ChatGPT de violer le principe d’exactitude des données personnelles, tel qu’établi par le RGPD (Règlement Général sur la Protection des Données). Cette plainte fait suite aux préoccupations concernant les « hallucinations » générées par le modèle, c’est-à-dire des erreurs ou des informations inexactes que ChatGPT peut produire en réponse à des requêtes.
Le RGPD impose que les données personnelles soient exactes et, lorsque cela est nécessaire, mises à jour. Selon noyb, lorsque ChatGPT génère des réponses fausses ou trompeuses, cela peut affecter la précision des informations qui sont, d’une manière ou d’une autre, liées à des utilisateurs ou à des interactions en ligne. Bien que ChatGPT ne traite pas directement de données personnelles en dehors des interactions, l’association estime que les erreurs de génération de contenu peuvent aboutir à des violations indirectes de la réglementation sur l’exactitude.
Cette plainte est la deuxième du genre déposée par noyb contre OpenAI. La première portait sur des préoccupations concernant la collecte et le traitement des données personnelles par OpenAI pour entraîner ses modèles d’IA. L’association soutient qu’OpenAI devrait être plus transparent et plus strict dans le respect des règles du RGPD, particulièrement en ce qui concerne la manière dont les informations erronées sont générées par l’IA et leurs conséquences potentielles.
Cette action met en lumière les défis éthiques et juridiques associés à l’utilisation de l’IA générative, et soulève des questions sur la responsabilité des entreprises qui développent ces technologies vis-à-vis des utilisateurs et des lois sur la protection des données.