[ad_1]
Lorsque la Cour suprême des États-Unis décidera dans les mois à venir d’affaiblir un puissant bouclier protégeant les entreprises Internet, la décision pourrait également avoir des implications pour les technologies en développement rapide comme le chatbot d’intelligence artificielle ChatGPT.
Les juges doivent statuer d’ici la fin juin si YouTube d’Alphabet peut être poursuivi pour ses recommandations vidéo aux utilisateurs. Cette affaire teste si une loi américaine qui protège les plates-formes technologiques de la responsabilité légale du contenu publié en ligne par leurs utilisateurs s’applique également lorsque les entreprises utilisent des algorithmes pour cibler les utilisateurs avec des recommandations.
Ce que le tribunal décide sur ces questions est pertinent au-delà des plateformes de médias sociaux. Sa décision pourrait influencer le débat émergent sur la question de savoir si les entreprises qui développent des chatbots d’IA génératifs comme ChatGPT d’OpenAI, une société dans laquelle Microsoft est un investisseur majeur, ou Bard de Google d’Alphabet devraient être protégées contre les actions en justice comme la diffamation ou les violations de la vie privée, selon la technologie. et des experts juridiques.
En effet, les algorithmes qui alimentent les outils d’IA génératifs tels que ChatGPT et son successeur GPT-4 fonctionnent de manière quelque peu similaire à ceux qui suggèrent des vidéos aux utilisateurs de YouTube, ont ajouté les experts.
« Le débat porte vraiment sur la question de savoir si l’organisation des informations disponibles en ligne via les moteurs de recommandation est si importante pour façonner le contenu qu’elle en devient responsable », a déclaré Cameron Kerry, chercheur invité au groupe de réflexion Brookings Institution à Washington et expert en intelligence artificielle. « Vous avez le même genre de problèmes avec un chatbot. »
Les représentants d’OpenAI et de Google n’ont pas répondu aux demandes de commentaires.
Lors des plaidoiries en février, les juges de la Cour suprême ont exprimé leur incertitude quant à l’opportunité d’affaiblir les protections inscrites dans la loi, connue sous le nom d’article 230 de la Communications Decency Act de 1996. Bien que l’affaire ne soit pas directement liée à l’IA générative, le juge Neil Gorsuch a noté que l’IA les outils qui génèrent de la « poésie » et des « polémiques » ne bénéficieraient probablement pas de telles protections juridiques.
L’affaire n’est qu’une facette d’une conversation émergente sur la question de savoir si l’immunité de l’article 230 devrait s’appliquer aux modèles d’IA formés sur des trésors de données en ligne existantes mais capables de produire des œuvres originales.
Les protections de l’article 230 s’appliquent généralement au contenu de tiers des utilisateurs d’une plate-forme technologique et non aux informations qu’une entreprise a aidé à développer. Les tribunaux n’ont pas encore déterminé si une réponse d’un chatbot IA serait couverte.
« CONSÉQUENCES DE LEURS PROPRES ACTIONS »
Le sénateur démocrate Ron Wyden, qui a aidé à rédiger cette loi alors qu’il était à la Chambre des représentants, a déclaré que le bouclier de responsabilité ne devrait pas s’appliquer aux outils d’IA générative, car ces outils « créent du contenu ».
« La section 230 concerne la protection des utilisateurs et des sites d’hébergement et d’organisation de la parole des utilisateurs. Elle ne devrait pas protéger les entreprises des conséquences de leurs propres actions et produits », a déclaré Wyden dans un communiqué à Reuters.
L’industrie technologique a fait pression pour préserver l’article 230 malgré l’opposition bipartite à l’immunité. Ils ont déclaré que des outils comme ChatGPT fonctionnent comme des moteurs de recherche, dirigeant les utilisateurs vers du contenu existant en réponse à une requête.
« L’IA ne crée pas vraiment quoi que ce soit. Elle prend du contenu existant et le met d’une manière ou d’un format différent », a déclaré Carl Szabo, vice-président et avocat général de NetChoice, un groupe commercial de l’industrie technologique.
Szabo a déclaré qu’une section 230 affaiblie présenterait une tâche impossible pour les développeurs d’IA, menaçant de les exposer à un flot de litiges qui pourraient étouffer l’innovation.
Certains experts prévoient que les tribunaux pourraient adopter un terrain d’entente, en examinant le contexte dans lequel le modèle d’IA a généré une réponse potentiellement nuisible.
Dans les cas où le modèle d’IA semble paraphraser les sources existantes, le bouclier peut toujours s’appliquer. Mais les chatbots comme ChatGPT sont connus pour créer des réponses fictives qui semblent n’avoir aucun lien avec des informations trouvées ailleurs en ligne, une situation qui, selon les experts, ne serait probablement pas protégée.
Hany Farid, technologue et professeur à l’Université de Californie à Berkeley, a déclaré qu’il était difficile d’imaginer que les développeurs d’IA devraient être à l’abri des poursuites concernant des modèles qu’ils « ont programmés, formés et déployés ».
« Lorsque les entreprises sont tenues responsables dans le cadre d’un procès civil des dommages causés par les produits qu’elles fabriquent, elles fabriquent des produits plus sûrs », a déclaré Farid. « Et lorsqu’ils ne sont pas tenus responsables, ils fabriquent des produits moins sûrs. »
L’affaire en cours de décision par la Cour suprême implique un appel de la famille de Nohemi Gonzalez, une étudiante californienne de 23 ans qui a été tuée par balle lors d’un saccage en 2015 par des militants islamistes à Paris, contre le renvoi par un tribunal inférieur de sa famille. procès contre YouTube.
Le procès accusait Google de fournir un « soutien matériel » au terrorisme et affirmait que YouTube, via les algorithmes de la plateforme de partage de vidéos, recommandait illégalement à certains utilisateurs des vidéos du groupe militant État islamique, qui a revendiqué les attentats de Paris.
© Thomson Reuters 2023
[ad_2]
Source link