Le déploiement « troublant » de l’IA expose ses défauts. À quel point devrions-nous être concernés ?

Le déploiement « troublant » de l'IA expose ses défauts. À quel point devrions-nous être concernés ? – Thebuzzly

#image_title

[ad_1]

Le déploiement « troublant » de l'IA expose ses défauts.  À quel point devrions-nous être concernés ?

Le PDG de Google et Alphabet avertit que la société doit agir rapidement pour s’adapter à l’expansion rapide de l’intelligence artificielle (IA).

« Cela va avoir un impact sur tous les produits de toutes les entreprises », a déclaré Sundar Pichai le 16 avril. dans une interview à « 60 Minutes (s’ouvre dans un nouvel onglet).  » Le mois dernier, Google a sorti son chatbot, Bard – un concurrent de ChatGPT, le chatbot largement connu produit par OpenAI – malgré des critiques cinglantes lors de tests internes, selon L’octet (s’ouvre dans un nouvel onglet).

Des programmes comme ChatGPT et Bard peuvent produire un texte de confiance en réponse aux requêtes des utilisateurs, et ils trouvent déjà un pied dans certaines tâches, telles que le codage, a déclaré Ernest Davis (s’ouvre dans un nouvel onglet), informaticien à l’université de New York. Cependant, ils oublient souvent les faits de base et « hallucinent », ce qui signifie qu’ils inventent des informations. Dans un exemple récent, ChatGPT inventé un scandale de harcèlement sexuel (s’ouvre dans un nouvel onglet) et a nommé un vrai professeur de droit comme auteur, avec des citations d’articles de journaux inexistants sur l’affaire.

La puissance de ces programmes, combinée à leurs imperfections, inquiète les experts quant au déploiement rapide de l’IA. Alors qu’une situation « Terminator » Skynet est encore loin, les programmes d’IA ont la capacité d’amplifier les préjugés humains, de rendre plus difficile la distinction des informations vraies des fausses et de perturber l’emploi, ont déclaré des experts à Live Science.

En rapport: DeepMind AI a découvert la structure de presque toutes les protéines connues de la science

Bénéfice ou biais ?

Au cours de la discussion « 60 minutes », l’intervieweur Scott Pelley a qualifié les capacités du chatbot Bard de « dérangeantes » et a déclaré que « Bard semble réfléchir ».

Cependant, les grands modèles de langage tels que Bard ne sont pas sensibles, a déclaré Sara Goudarzi (s’ouvre dans un nouvel onglet), rédacteur en chef adjoint des technologies de rupture pour le Bulletin of the Atomic Scientists. « Je pense que cela doit vraiment être clair », a déclaré Goudarzi.

Ces chatbots IA produisent une écriture à consonance humaine en faisant des inférences statistiques sur les mots susceptibles de venir ensuite dans une phrase, après avoir été formés sur d’énormes quantités de texte préexistant. Cette méthode signifie que même si l’IA peut sembler sûre de tout ce qu’elle dit, elle ne le comprend pas vraiment, a déclaré Damien Williams (s’ouvre dans un nouvel onglet)professeur adjoint à la School of Data Science de l’Université de Caroline du Nord qui étudie la technologie et la société.

Ces chatbots IA « n’essaient pas de vous donner les bonnes réponses, ils essaient de vous donner une réponse que vous aimez », a déclaré Williams à Live Science. Il a donné un exemple d’un panel récent sur l’IA auquel il a participé : le conférencier introductif a demandé à ChatGPT de produire une biographie pour Shannon Vallor (s’ouvre dans un nouvel onglet)une éthicienne de l’IA à l’Université d’Édimbourg au Royaume-Uni. Le programme a tenté de donner à Vallor une formation plus prestigieuse qu’elle n’en avait réellement, car il n’était tout simplement pas statistiquement probable qu’une personne de sa stature dans le domaine aille dans un collège communautaire et un public université.

Il est facile pour l’IA non seulement de copier mais d’amplifier les biais humains qui existent dans les données d’entraînement. Par exemple, en 2018, Amazon a abandonné un outil de tri de CV basé sur l’IA qui montrait des préjugés persistants contre les femmes. L’IA a classé les résumés avec des noms à consonance féminine comme moins qualifiés que ceux avec des noms à consonance masculine, a déclaré Williams.

« C’est parce que les données sur lesquelles il avait été formé étaient le tri sommaire des êtres humains », a déclaré Williams.

Les programmes d’IA comme ChatGPT sont programmés pour essayer d’éviter les réponses racistes, sexistes ou autrement indésirables. Mais la vérité est qu’il n’existe pas d’IA « objective », a déclaré Williams. L’IA inclura toujours des valeurs humaines et des préjugés humains, car elle est construite par des humains.

« D’une manière ou d’une autre, il y aura une sorte de perspective qui sous-tendra la façon dont il sera construit », a déclaré Williams. « La question est, voulons-nous laisser cela se produire accidentellement comme nous l’avons fait … ou voulons-nous être intentionnels à ce sujet? »

Construire des garanties d’IA

Pichai a averti que l’IA pourrait augmenter l’ampleur de la désinformation. Déjà, des vidéos générées par l’IA doublées « faux faux« sont de plus en plus convaincants et plus difficiles à discerner de la réalité. animer la « Mona Lisa » or faire revivre Marie Curie? La technologie Deepfake peut déjà faire un travail convaincant.

Pichai a déclaré que les sociétés doivent élaborer des réglementations et des traités de rédaction pour garantir que l’IA est utilisée de manière responsable.

« Ce n’est pas à une entreprise de décider », a déclaré Pichai à « 60 Minutes ». « C’est pourquoi je pense que le développement de cela doit inclure non seulement des ingénieurs, mais aussi des spécialistes des sciences sociales, des éthiciens, des philosophes, etc. »

Jusqu’à présent, les réglementations relatives à l’IA relèvent en grande partie de lois conçues pour couvrir les technologies plus anciennes, a déclaré Williams. Mais il y a eu des tentatives pour une structure réglementaire plus complète. En 2022, le Bureau de la politique scientifique et technologique de la Maison Blanche (OSTP) a publié le « Charte des droits de l’IA (s’ouvre dans un nouvel onglet)« , un plan destiné à promouvoir le développement de l’IA éthique et centré sur l’humain. Le document couvre les questions d’équité et de dommages possibles, a déclaré Williams, mais il laisse de côté certains problèmes préoccupants, tels que le développement et le déploiement de l’IA par les forces de l’ordre et l’armée. .

De plus en plus, a déclaré Williams, les candidats politiques pour les agences et les ministères fédéraux sont choisis parmi des personnes qui ont une idée des coûts et des avantages de l’IA. Alvaro Bedoya, l’actuel commissaire de la Federal Trade Commission, a été le directeur fondateur du Georgetown Law Center for Privacy and Technology et possède une expertise en technologie et en éthique, a déclaré Williams, tandis qu’Alondra Nelson, ancienne directrice par intérim de l’OSTP, a eu un longue carrière dans les sciences, la technologie et les inégalités. Mais il reste un long chemin à parcourir pour développer la culture technologique parmi les politiciens et les décideurs, a déclaré Williams.

« Nous en sommes encore à laisser diverses grandes entreprises diriger le développement et la distribution de ce qui pourrait être des technologies très puissantes, mais des technologies qui sont opaques et qui sont intégrées dans notre vie quotidienne d’une manière sur laquelle nous n’avons aucune contrôle », a-t-il déclaré.

[ad_2]

Source link

Quitter la version mobile