Des experts en intelligence artificielle expriment leurs inquiétudes face à la lettre soutenue par Elon Musk citant leurs recherches

#image_title

<p> &lbrack;ad&lowbar;1&rsqb;<br &sol;>&NewLine;<&sol;p>&NewLine;<div>&NewLine;<p>Quatre experts en intelligence artificielle ont exprimé leur inquiétude après que leurs travaux aient été cités dans une lettre ouverte – cosignée par Elon Musk – exigeant une pause urgente dans la recherche&period;<&sol;p>&NewLine;<p>La lettre&comma; datée du 22 mars et avec plus de 1 800 signatures vendredi&comma; appelait à un disjoncteur de six mois dans le développement de systèmes « plus puissants » que le nouveau GPT-4 d&rsquo&semi;OpenAI soutenu par Microsoft&comma; qui peut tenir une conversation de type humain&period; &comma; compose des chansons et résume de longs documents&period;<&sol;p>&NewLine;<p>Depuis la sortie du prédécesseur de GPT-4&comma; ChatGPT&comma; l&rsquo&semi;année dernière&comma; des sociétés rivales se sont précipitées pour lancer des produits similaires&period;<&sol;p>&NewLine;<p>La lettre ouverte indique que les systèmes d&rsquo&semi;IA dotés d&rsquo&semi;une « intelligence compétitive humaine » posent de graves risques pour l&rsquo&semi;humanité&comma; citant 12 recherches d&rsquo&semi;experts&comma; notamment des universitaires ainsi que des employés actuels et anciens d&rsquo&semi;OpenAI&comma; Google et sa filiale DeepMind&period;<&sol;p>&NewLine;<p>Des groupes de la société civile aux États-Unis et dans l&rsquo&semi;UE ont depuis pressé les législateurs de freiner les recherches d&rsquo&semi;OpenAI&period; OpenAI n&rsquo&semi;a pas immédiatement répondu aux demandes de commentaires&period;<&sol;p>&NewLine;<p>Les critiques ont accusé le Future of Life Institute &lpar;FLI&rpar;&comma; l&rsquo&semi;organisation à l&rsquo&semi;origine de la lettre qui est principalement financée par la Fondation Musk&comma; de donner la priorité aux scénarios apocalyptiques imaginaires par rapport aux préoccupations plus immédiates concernant l&rsquo&semi;IA&comma; telles que les préjugés racistes ou sexistes programmés dans les machines&period;<&sol;p>&NewLine;<p>Parmi les recherches citées figurait « On the Dangers of Stochastic Parrots »&comma; un article bien connu co-écrit par Margaret Mitchell&comma; qui supervisait auparavant la recherche éthique sur l&rsquo&semi;IA chez Google&period;<&sol;p>&NewLine;<p>Mitchell&comma; maintenant scientifique en chef de l&rsquo&semi;éthique de la société d&rsquo&semi;intelligence artificielle Hugging Face&comma; a critiqué la lettre&comma; déclarant à Reuters qu&rsquo&semi;il n&rsquo&semi;était pas clair ce qui comptait comme « plus puissant que GPT4 »&period;<&sol;p>&NewLine;<p>« En traitant beaucoup d&rsquo&semi;idées douteuses comme des données&comma; la lettre affirme un ensemble de priorités et un récit sur l&rsquo&semi;IA qui profite aux partisans du FLI »&comma; a-t-elle déclaré&period; « Ignorer les dommages actifs en ce moment est un privilège que certains d&rsquo&semi;entre nous n&rsquo&semi;ont pas&period; »<&sol;p>&NewLine;<p>Ses co-auteurs Timnit Gebru et Emily M&period; Bender ont critiqué la lettre sur Twitter&comma; cette dernière qualifiant certaines de ses affirmations de « déséquilibrées »&period;<&sol;p>&NewLine;<p>Le président du FLI&comma; Max Tegmark&comma; a déclaré à Reuters que la campagne n&rsquo&semi;était pas une tentative d&rsquo&semi;entraver l&rsquo&semi;avantage commercial d&rsquo&semi;OpenAI&period;<&sol;p>&NewLine;<p>« C&rsquo&semi;est assez hilarant&period; J&rsquo&semi;ai vu des gens dire&colon; » Elon Musk essaie de ralentir la concurrence «  »&comma; a-t-il déclaré&comma; ajoutant que Musk n&rsquo&semi;avait joué aucun rôle dans la rédaction de la lettre&period; « Il ne s&rsquo&semi;agit pas d&rsquo&semi;une seule entreprise&period; »<&sol;p>&NewLine;<h2 id&equals;"risks-now">Risques maintenant<&sol;h2>&NewLine;<p>Shiri Dori-Hacohen&comma; professeure adjointe à l&rsquo&semi;Université du Connecticut&comma; a également contesté la mention de son travail dans la lettre&period; L&rsquo&semi;année dernière&comma; elle a co-écrit un article de recherche affirmant que l&rsquo&semi;utilisation généralisée de l&rsquo&semi;IA posait déjà de sérieux risques&period;<&sol;p>&NewLine;<p>Ses recherches ont fait valoir que l&rsquo&semi;utilisation actuelle des systèmes d&rsquo&semi;IA pourrait influencer la prise de décision en matière de changement climatique&comma; de guerre nucléaire et d&rsquo&semi;autres menaces existentielles&period;<&sol;p>&NewLine;<p>Elle a déclaré à Reuters&colon; « L&rsquo&semi;IA n&rsquo&semi;a pas besoin d&rsquo&semi;atteindre une intelligence de niveau humain pour exacerber ces risques&period; »<&sol;p>&NewLine;<p>« Il y a des risques non existentiels qui sont vraiment&comma; vraiment importants&comma; mais qui ne reçoivent pas le même genre d&rsquo&semi;attention au niveau hollywoodien&period; »<&sol;p>&NewLine;<p>Invité à commenter les critiques&comma; Tegmark de FLI a déclaré que les risques à court et à long terme de l&rsquo&semi;IA devraient être pris au sérieux&period;<&sol;p>&NewLine;<p>« Si nous citons quelqu&rsquo&semi;un&comma; cela signifie simplement que nous prétendons qu&rsquo&semi;il approuve ce prix&period; Cela ne signifie pas qu&rsquo&semi;il approuve la lettre&comma; ou que nous approuvons tout ce qu&rsquo&semi;il pense »&comma; a-t-il déclaré à Reuters&period;<&sol;p>&NewLine;<p>Dan Hendrycks&comma; directeur du Center for AI Safety basé en Californie&comma; qui a également été cité dans la lettre&comma; s&rsquo&semi;en est tenu à son contenu&comma; déclarant à Reuters qu&rsquo&semi;il était sensible d&rsquo&semi;envisager des événements de cygne noir – ceux qui semblent peu probables&comma; mais qui auraient des conséquences dévastatrices&period;<&sol;p>&NewLine;<p>La lettre ouverte a également averti que des outils d&rsquo&semi;IA génératifs pourraient être utilisés pour inonder Internet de « propagande et de contrevérité »&period;<&sol;p>&NewLine;<p>Dori-Hacohen a déclaré qu&rsquo&semi;il était « assez riche » pour Musk de l&rsquo&semi;avoir signé&comma; citant une augmentation signalée de la désinformation sur Twitter suite à son acquisition de la plateforme&comma; documentée par le groupe de la société civile Common Cause et d&rsquo&semi;autres&period;<&sol;p>&NewLine;<p>Twitter lancera bientôt une nouvelle structure de frais pour l&rsquo&semi;accès à ses données de recherche&comma; ce qui pourrait entraver la recherche sur le sujet&period;<&sol;p>&NewLine;<p>« Cela a eu un impact direct sur le travail de mon laboratoire&comma; et celui effectué par d&rsquo&semi;autres qui étudient la mésinformation et la désinformation »&comma; a déclaré Dori-Hacohen&period; « Nous opérons avec une main attachée dans le dos&period; »<&sol;p>&NewLine;<p>Musk et Twitter n&rsquo&semi;ont pas immédiatement répondu aux demandes de commentaires&period;<&sol;p>&NewLine;<p><em>© Thomson Reuters 2023<&sol;em> <&sol;p>&NewLine;<&sol;p>&NewLine;<hr &sol;>&NewLine;<div><em>Des smartphones avec écrans enroulables ou refroidissement liquide&comma; aux lunettes AR compactes et aux combinés qui peuvent être réparés facilement par leurs propriétaires&comma; nous discutons des meilleurs appareils que nous avons vus au MWC 2023 sur Orbital&comma; le podcast thebuzzly&period; Orbital est disponible sur <a rel&equals;"nofollow noopener" href&equals;"https&colon;&sol;&sol;open&period;spotify&period;com&sol;show&sol;1TQIHsTESxrsHleJVhUKcr" target&equals;"&lowbar;blank">Spotify<&sol;a>&comma; <a rel&equals;"nofollow noopener" href&equals;"https&colon;&sol;&sol;pricee&period;com&sol;api&sol;redirect&sol;t&period;php&quest;from&equals;gadgets360&amp&semi;redirect&equals;https&percnt;3A&percnt;2F&percnt;2Fgaana&period;com&percnt;2Fpodcast&percnt;2Forbital-season-1" target&equals;"&lowbar;blank">Gaana<&sol;a>&comma; <a rel&equals;"nofollow noopener" href&equals;"https&colon;&sol;&sol;pricee&period;com&sol;api&sol;redirect&sol;t&period;php&quest;from&equals;gadgets360&amp&semi;redirect&equals;https&percnt;3A&percnt;2F&percnt;2Fwww&period;jiosaavn&period;com&percnt;2Fshows&percnt;2Forbital&percnt;2F1&percnt;2Fr9VmNAJ211U" target&equals;"&lowbar;blank">JioSaavn<&sol;a>&comma; <a rel&equals;"nofollow noopener" href&equals;"https&colon;&sol;&sol;pricee&period;com&sol;api&sol;redirect&sol;t&period;php&quest;from&equals;gadgets360&amp&semi;redirect&equals;https&percnt;3A&percnt;2F&percnt;2Fpodcasts&period;google&period;com&percnt;2Ffeed&percnt;2FaHR0cHM6Ly9jZG4uZ2FkZ2V0czM2MC5jb20vY29udGVudC9kYXRhL3htbC9vcmJpdGFsLnhtbA" target&equals;"&lowbar;blank">Podcasts Google<&sol;a>&comma; <a rel&equals;"nofollow noopener" href&equals;"https&colon;&sol;&sol;itunes&period;apple&period;com&sol;in&sol;podcast&sol;orbital-gadgets-360-podcast&sol;id1121036073" target&equals;"&lowbar;blank">Podcast Apple<&sol;a>&comma; <a rel&equals;"nofollow noopener" href&equals;"https&colon;&sol;&sol;pricee&period;com&sol;api&sol;redirect&sol;t&period;php&quest;from&equals;gadgets360&amp&semi;redirect&equals;https&percnt;3A&percnt;2F&percnt;2Fmusic&period;amazon&period;in&percnt;2Fpodcasts&percnt;2Fe3a8ca64-3005-4427-a89e-b3e8ec828c3b&percnt;2FOrbital" target&equals;"&lowbar;blank">Amazon Musique<&sol;a> et partout où vous obtenez vos podcasts&period;<&sol;em><&sol;div>&NewLine;<div class&equals;"downloadtxt"><i>Des liens d&rsquo&semi;affiliation peuvent être générés automatiquement &&num;8211&semi; consultez notre déclaration d&rsquo&semi;éthique pour plus de détails&period;<&sol;i><&sol;div>&NewLine;<&sol;div>&NewLine;<p>&lbrack;ad&lowbar;2&rsqb;<br &sol;>&NewLine;<br &sol;><a href&equals;"https&colon;&sol;&sol;www&period;gadgets360&period;com&sol;internet&sol;news&sol;elon-musk-letter-gpt-4-ai-experts-research-express-concerns-3911249&num;rss-gadgets-all">Source link <&sol;a><&sol;p>&NewLine;

Quitter la version mobile