[ad_1]
Le producteur de ChatGPT, OpenAI, prévoit de présenter jeudi des mesures pour remédier aux inquiétudes qui ont conduit à l’interdiction italienne du chatbot la semaine dernière, a déclaré l’agence italienne de protection des données Garante.
OpenAI, soutenu par Microsoft, a mis ChatGPT hors ligne en Italie après que Garante l’a temporairement restreint la semaine dernière et a lancé une enquête sur une violation présumée des règles de confidentialité.
L’agence a accusé la semaine dernière OpenAI de ne pas vérifier l’âge des utilisateurs de ChatGPT et « l’absence de toute base légale justifiant la collecte et le stockage massifs de données personnelles ».
Jeudi, il a déclaré qu’il n’avait pas l’intention de freiner le développement de l’IA, mais a rappelé l’importance du respect des règles visant à protéger les données personnelles des citoyens italiens et européens.
Lors d’une vidéoconférence mercredi soir à laquelle assistait le PDG Sam Altman, OpenAI s’est engagé à être plus transparent sur la façon dont il traite les données des utilisateurs et vérifie l’âge de l’utilisateur, a déclaré Garante.
La société a déclaré qu’elle enverrait jeudi à Garante un document concernant les mesures à prendre pour répondre à ses demandes.
L’autorité des données a déclaré qu’elle évaluerait les propositions faites par OpenAI. Une source proche du dossier a déclaré qu’il faudrait probablement plusieurs jours pour évaluer le contenu de la lettre.
OpenAI, qui est basée à San Francisco, n’a pas répondu à une demande de commentaire sur la déclaration de l’agence.
Jeudi, la société a publié un article de blog intitulé « Notre approche de la sécurité de l’IA », qui indiquait qu’elle s’efforçait de développer « des politiques nuancées contre les comportements qui représentent un risque réel pour les personnes ».
« Nous n’utilisons pas les données pour vendre nos services, faire de la publicité ou créer des profils de personnes », a-t-il déclaré. « Nous utilisons les données pour rendre nos modèles plus utiles pour les gens. ChatGPT, par exemple, s’améliore grâce à une formation supplémentaire sur les conversations que les gens ont avec lui.
« Bien que certaines de nos données de formation incluent des informations personnelles disponibles sur l’Internet public, nous voulons que nos modèles apprennent à connaître le monde, et non les particuliers. »
La société a déclaré qu’elle supprimait les informations personnelles de ses ensembles de données dans la mesure du possible, affinait les modèles pour rejeter les invites des utilisateurs demandant de telles informations et répondrait aux demandes individuelles de suppression de leurs données de ses systèmes.
L’interdiction par l’Italie a suscité l’intérêt d’autres régulateurs de la vie privée en Europe qui étudient si des mesures plus sévères sont nécessaires pour les chatbots et s’il faut coordonner de telles actions.
En février, Garante a interdit à la société de chatbot IA Replika d’utiliser les données personnelles des utilisateurs italiens, invoquant des risques pour les mineurs et les personnes émotionnellement fragiles.
© Thomson Reuters 2023
[ad_2]
Source link