<p> [ad_1]<br />
</p>
<div>
<p>Lorsque la Cour suprême des États-Unis décidera dans les mois à venir d&rsquo;affaiblir un puissant bouclier protégeant les entreprises Internet, la décision pourrait également avoir des implications pour les technologies en développement rapide comme le chatbot d&rsquo;intelligence artificielle ChatGPT.</p>
<p>Les juges doivent statuer d&rsquo;ici la fin juin si YouTube d&rsquo;Alphabet peut être poursuivi pour ses recommandations vidéo aux utilisateurs. Cette affaire teste si une loi américaine qui protège les plates-formes technologiques de la responsabilité légale du contenu publié en ligne par leurs utilisateurs s&rsquo;applique également lorsque les entreprises utilisent des algorithmes pour cibler les utilisateurs avec des recommandations.</p>
<p>Ce que le tribunal décide sur ces questions est pertinent au-delà des plateformes de médias sociaux. Sa décision pourrait influencer le débat émergent sur la question de savoir si les entreprises qui développent des chatbots d&rsquo;IA génératifs comme ChatGPT d&rsquo;OpenAI, une société dans laquelle Microsoft est un investisseur majeur, ou Bard de Google d&rsquo;Alphabet devraient être protégées contre les actions en justice comme la diffamation ou les violations de la vie privée, selon la technologie. et des experts juridiques.</p>
<p>En effet, les algorithmes qui alimentent les outils d&rsquo;IA génératifs tels que ChatGPT et son successeur GPT-4 fonctionnent de manière quelque peu similaire à ceux qui suggèrent des vidéos aux utilisateurs de YouTube, ont ajouté les experts.</p>
<p>« Le débat porte vraiment sur la question de savoir si l&rsquo;organisation des informations disponibles en ligne via les moteurs de recommandation est si importante pour façonner le contenu qu&rsquo;elle en devient responsable », a déclaré Cameron Kerry, chercheur invité au groupe de réflexion Brookings Institution à Washington et expert en intelligence artificielle. « Vous avez le même genre de problèmes avec un chatbot. »</p>
<p>Les représentants d&rsquo;OpenAI et de Google n&rsquo;ont pas répondu aux demandes de commentaires.</p>
<p>Lors des plaidoiries en février, les juges de la Cour suprême ont exprimé leur incertitude quant à l&rsquo;opportunité d&rsquo;affaiblir les protections inscrites dans la loi, connue sous le nom d&rsquo;article 230 de la Communications Decency Act de 1996. Bien que l&rsquo;affaire ne soit pas directement liée à l&rsquo;IA générative, le juge Neil Gorsuch a noté que l&rsquo;IA les outils qui génèrent de la « poésie » et des « polémiques » ne bénéficieraient probablement pas de telles protections juridiques.</p>
<p>L&rsquo;affaire n&rsquo;est qu&rsquo;une facette d&rsquo;une conversation émergente sur la question de savoir si l&rsquo;immunité de l&rsquo;article 230 devrait s&rsquo;appliquer aux modèles d&rsquo;IA formés sur des trésors de données en ligne existantes mais capables de produire des œuvres originales.</p>
<p>Les protections de l&rsquo;article 230 s&rsquo;appliquent généralement au contenu de tiers des utilisateurs d&rsquo;une plate-forme technologique et non aux informations qu&rsquo;une entreprise a aidé à développer. Les tribunaux n&rsquo;ont pas encore déterminé si une réponse d&rsquo;un chatbot IA serait couverte.</p>
<p>« CONSÉQUENCES DE LEURS PROPRES ACTIONS »</p>
<p>Le sénateur démocrate Ron Wyden, qui a aidé à rédiger cette loi alors qu&rsquo;il était à la Chambre des représentants, a déclaré que le bouclier de responsabilité ne devrait pas s&rsquo;appliquer aux outils d&rsquo;IA générative, car ces outils « créent du contenu ».</p>
<p>« La section 230 concerne la protection des utilisateurs et des sites d&rsquo;hébergement et d&rsquo;organisation de la parole des utilisateurs. Elle ne devrait pas protéger les entreprises des conséquences de leurs propres actions et produits », a déclaré Wyden dans un communiqué à Reuters.</p>
<p>L&rsquo;industrie technologique a fait pression pour préserver l&rsquo;article 230 malgré l&rsquo;opposition bipartite à l&rsquo;immunité. Ils ont déclaré que des outils comme ChatGPT fonctionnent comme des moteurs de recherche, dirigeant les utilisateurs vers du contenu existant en réponse à une requête.</p>
<p>« L&rsquo;IA ne crée pas vraiment quoi que ce soit. Elle prend du contenu existant et le met d&rsquo;une manière ou d&rsquo;un format différent », a déclaré Carl Szabo, vice-président et avocat général de NetChoice, un groupe commercial de l&rsquo;industrie technologique.</p>
<p>Szabo a déclaré qu&rsquo;une section 230 affaiblie présenterait une tâche impossible pour les développeurs d&rsquo;IA, menaçant de les exposer à un flot de litiges qui pourraient étouffer l&rsquo;innovation.</p>
<p>Certains experts prévoient que les tribunaux pourraient adopter un terrain d&rsquo;entente, en examinant le contexte dans lequel le modèle d&rsquo;IA a généré une réponse potentiellement nuisible.</p>
<p>Dans les cas où le modèle d&rsquo;IA semble paraphraser les sources existantes, le bouclier peut toujours s&rsquo;appliquer. Mais les chatbots comme ChatGPT sont connus pour créer des réponses fictives qui semblent n&rsquo;avoir aucun lien avec des informations trouvées ailleurs en ligne, une situation qui, selon les experts, ne serait probablement pas protégée.</p>
<p>Hany Farid, technologue et professeur à l&rsquo;Université de Californie à Berkeley, a déclaré qu&rsquo;il était difficile d&rsquo;imaginer que les développeurs d&rsquo;IA devraient être à l&rsquo;abri des poursuites concernant des modèles qu&rsquo;ils « ont programmés, formés et déployés ».</p>
<p>« Lorsque les entreprises sont tenues responsables dans le cadre d&rsquo;un procès civil des dommages causés par les produits qu&rsquo;elles fabriquent, elles fabriquent des produits plus sûrs », a déclaré Farid. « Et lorsqu&rsquo;ils ne sont pas tenus responsables, ils fabriquent des produits moins sûrs. »</p>
<p>L&rsquo;affaire en cours de décision par la Cour suprême implique un appel de la famille de Nohemi Gonzalez, une étudiante californienne de 23 ans qui a été tuée par balle lors d&rsquo;un saccage en 2015 par des militants islamistes à Paris, contre le renvoi par un tribunal inférieur de sa famille. procès contre YouTube.</p>
<p>Le procès accusait Google de fournir un « soutien matériel » au terrorisme et affirmait que YouTube, via les algorithmes de la plateforme de partage de vidéos, recommandait illégalement à certains utilisateurs des vidéos du groupe militant État islamique, qui a revendiqué les attentats de Paris. </p>
</p>
<p><em>© Thomson Reuters 2023 </em></p>
<hr />
<div class="downloadtxt"><i>Des liens d&rsquo;affiliation peuvent être générés automatiquement &#8211; consultez notre déclaration d&rsquo;éthique pour plus de détails.</i></div>
</div>
<p>[ad_2]<br />
<br /><a href="https://www.gadgets360.com/internet/news/youtube-us-supreme-court-section-230-ai-protections-chatgpt-artificial-intelligence-3975008#rss-gadgets-all">Source link </a></p>

L’affaire YouTube devant la Cour suprême des États-Unis pourrait avoir des implications pour ChatGPT et l’IA
-
by thebuzzly

#image_title
- Categories: TECH
- Tags: avoirChatGPTCourdesdevantÉtatsUnisimplicationslaffairelIApourpourraitsuprêmeYouTube
Related Content
Sora : la création de vidéos par intelligence artificielle d'OpenAI
by
thebuzzly
18/02/2024