L’affaire YouTube devant la Cour suprême des États-Unis pourrait avoir des implications pour ChatGPT et l’IA

#image_title

<p> &lbrack;ad&lowbar;1&rsqb;<br &sol;>&NewLine;<&sol;p>&NewLine;<div>&NewLine;<p>Lorsque la Cour suprême des États-Unis décidera dans les mois à venir d&rsquo&semi;affaiblir un puissant bouclier protégeant les entreprises Internet&comma; la décision pourrait également avoir des implications pour les technologies en développement rapide comme le chatbot d&rsquo&semi;intelligence artificielle ChatGPT&period;<&sol;p>&NewLine;<p>Les juges doivent statuer d&rsquo&semi;ici la fin juin si YouTube d&rsquo&semi;Alphabet peut être poursuivi pour ses recommandations vidéo aux utilisateurs&period; Cette affaire teste si une loi américaine qui protège les plates-formes technologiques de la responsabilité légale du contenu publié en ligne par leurs utilisateurs s&rsquo&semi;applique également lorsque les entreprises utilisent des algorithmes pour cibler les utilisateurs avec des recommandations&period;<&sol;p>&NewLine;<p>Ce que le tribunal décide sur ces questions est pertinent au-delà des plateformes de médias sociaux&period; Sa décision pourrait influencer le débat émergent sur la question de savoir si les entreprises qui développent des chatbots d&rsquo&semi;IA génératifs comme ChatGPT d&rsquo&semi;OpenAI&comma; une société dans laquelle Microsoft est un investisseur majeur&comma; ou Bard de Google d&rsquo&semi;Alphabet devraient être protégées contre les actions en justice comme la diffamation ou les violations de la vie privée&comma; selon la technologie&period; et des experts juridiques&period;<&sol;p>&NewLine;<p>En effet&comma; les algorithmes qui alimentent les outils d&rsquo&semi;IA génératifs tels que ChatGPT et son successeur GPT-4 fonctionnent de manière quelque peu similaire à ceux qui suggèrent des vidéos aux utilisateurs de YouTube&comma; ont ajouté les experts&period;<&sol;p>&NewLine;<p>« Le débat porte vraiment sur la question de savoir si l&rsquo&semi;organisation des informations disponibles en ligne via les moteurs de recommandation est si importante pour façonner le contenu qu&rsquo&semi;elle en devient responsable »&comma; a déclaré Cameron Kerry&comma; chercheur invité au groupe de réflexion Brookings Institution à Washington et expert en intelligence artificielle&period; « Vous avez le même genre de problèmes avec un chatbot&period; »<&sol;p>&NewLine;<p>Les représentants d&rsquo&semi;OpenAI et de Google n&rsquo&semi;ont pas répondu aux demandes de commentaires&period;<&sol;p>&NewLine;<p>Lors des plaidoiries en février&comma; les juges de la Cour suprême ont exprimé leur incertitude quant à l&rsquo&semi;opportunité d&rsquo&semi;affaiblir les protections inscrites dans la loi&comma; connue sous le nom d&rsquo&semi;article 230 de la Communications Decency Act de 1996&period; Bien que l&rsquo&semi;affaire ne soit pas directement liée à l&rsquo&semi;IA générative&comma; le juge Neil Gorsuch a noté que l&rsquo&semi;IA les outils qui génèrent de la « poésie » et des « polémiques » ne bénéficieraient probablement pas de telles protections juridiques&period;<&sol;p>&NewLine;<p>L&rsquo&semi;affaire n&rsquo&semi;est qu&rsquo&semi;une facette d&rsquo&semi;une conversation émergente sur la question de savoir si l&rsquo&semi;immunité de l&rsquo&semi;article 230 devrait s&rsquo&semi;appliquer aux modèles d&rsquo&semi;IA formés sur des trésors de données en ligne existantes mais capables de produire des œuvres originales&period;<&sol;p>&NewLine;<p>Les protections de l&rsquo&semi;article 230 s&rsquo&semi;appliquent généralement au contenu de tiers des utilisateurs d&rsquo&semi;une plate-forme technologique et non aux informations qu&rsquo&semi;une entreprise a aidé à développer&period; Les tribunaux n&rsquo&semi;ont pas encore déterminé si une réponse d&rsquo&semi;un chatbot IA serait couverte&period;<&sol;p>&NewLine;<p>« CONSÉQUENCES DE LEURS PROPRES ACTIONS »<&sol;p>&NewLine;<p>Le sénateur démocrate Ron Wyden&comma; qui a aidé à rédiger cette loi alors qu&rsquo&semi;il était à la Chambre des représentants&comma; a déclaré que le bouclier de responsabilité ne devrait pas s&rsquo&semi;appliquer aux outils d&rsquo&semi;IA générative&comma; car ces outils « créent du contenu »&period;<&sol;p>&NewLine;<p>« La section 230 concerne la protection des utilisateurs et des sites d&rsquo&semi;hébergement et d&rsquo&semi;organisation de la parole des utilisateurs&period; Elle ne devrait pas protéger les entreprises des conséquences de leurs propres actions et produits »&comma; a déclaré Wyden dans un communiqué à Reuters&period;<&sol;p>&NewLine;<p>L&rsquo&semi;industrie technologique a fait pression pour préserver l&rsquo&semi;article 230 malgré l&rsquo&semi;opposition bipartite à l&rsquo&semi;immunité&period; Ils ont déclaré que des outils comme ChatGPT fonctionnent comme des moteurs de recherche&comma; dirigeant les utilisateurs vers du contenu existant en réponse à une requête&period;<&sol;p>&NewLine;<p>« L&rsquo&semi;IA ne crée pas vraiment quoi que ce soit&period; Elle prend du contenu existant et le met d&rsquo&semi;une manière ou d&rsquo&semi;un format différent »&comma; a déclaré Carl Szabo&comma; vice-président et avocat général de NetChoice&comma; un groupe commercial de l&rsquo&semi;industrie technologique&period;<&sol;p>&NewLine;<p>Szabo a déclaré qu&rsquo&semi;une section 230 affaiblie présenterait une tâche impossible pour les développeurs d&rsquo&semi;IA&comma; menaçant de les exposer à un flot de litiges qui pourraient étouffer l&rsquo&semi;innovation&period;<&sol;p>&NewLine;<p>Certains experts prévoient que les tribunaux pourraient adopter un terrain d&rsquo&semi;entente&comma; en examinant le contexte dans lequel le modèle d&rsquo&semi;IA a généré une réponse potentiellement nuisible&period;<&sol;p>&NewLine;<p>Dans les cas où le modèle d&rsquo&semi;IA semble paraphraser les sources existantes&comma; le bouclier peut toujours s&rsquo&semi;appliquer&period; Mais les chatbots comme ChatGPT sont connus pour créer des réponses fictives qui semblent n&rsquo&semi;avoir aucun lien avec des informations trouvées ailleurs en ligne&comma; une situation qui&comma; selon les experts&comma; ne serait probablement pas protégée&period;<&sol;p>&NewLine;<p>Hany Farid&comma; technologue et professeur à l&rsquo&semi;Université de Californie à Berkeley&comma; a déclaré qu&rsquo&semi;il était difficile d&rsquo&semi;imaginer que les développeurs d&rsquo&semi;IA devraient être à l&rsquo&semi;abri des poursuites concernant des modèles qu&rsquo&semi;ils « ont programmés&comma; formés et déployés »&period;<&sol;p>&NewLine;<p>« Lorsque les entreprises sont tenues responsables dans le cadre d&rsquo&semi;un procès civil des dommages causés par les produits qu&rsquo&semi;elles fabriquent&comma; elles fabriquent des produits plus sûrs »&comma; a déclaré Farid&period; « Et lorsqu&rsquo&semi;ils ne sont pas tenus responsables&comma; ils fabriquent des produits moins sûrs&period; »<&sol;p>&NewLine;<p>L&rsquo&semi;affaire en cours de décision par la Cour suprême implique un appel de la famille de Nohemi Gonzalez&comma; une étudiante californienne de 23 ans qui a été tuée par balle lors d&rsquo&semi;un saccage en 2015 par des militants islamistes à Paris&comma; contre le renvoi par un tribunal inférieur de sa famille&period; procès contre YouTube&period;<&sol;p>&NewLine;<p>Le procès accusait Google de fournir un « soutien matériel » au terrorisme et affirmait que YouTube&comma; via les algorithmes de la plateforme de partage de vidéos&comma; recommandait illégalement à certains utilisateurs des vidéos du groupe militant État islamique&comma; qui a revendiqué les attentats de Paris&period; <&sol;p>&NewLine;<&sol;p>&NewLine;<p><em>© Thomson Reuters 2023 <&sol;em><&sol;p>&NewLine;<hr &sol;>&NewLine;<div class&equals;"downloadtxt"><i>Des liens d&rsquo&semi;affiliation peuvent être générés automatiquement &&num;8211&semi; consultez notre déclaration d&rsquo&semi;éthique pour plus de détails&period;<&sol;i><&sol;div>&NewLine;<&sol;div>&NewLine;<p>&lbrack;ad&lowbar;2&rsqb;<br &sol;>&NewLine;<br &sol;><a href&equals;"https&colon;&sol;&sol;www&period;gadgets360&period;com&sol;internet&sol;news&sol;youtube-us-supreme-court-section-230-ai-protections-chatgpt-artificial-intelligence-3975008&num;rss-gadgets-all">Source link <&sol;a><&sol;p>&NewLine;

Quitter la version mobile