[ad_1]
Dans l’autobiographie de l’écrivain américain Mark Twain, il cite – ou peut-être mal cite – l’ancien Premier ministre britannique Benjamin Disraeli disant : « Il y a trois sortes de mensonges : les mensonges, les maudits mensonges et les statistiques. Dans un merveilleux bond en avant, l’intelligence artificielle combine les trois dans un petit paquet bien rangé.
ChatGPT, et d’autres chatbots IA génératifs similaires, sont formés sur de vastes ensembles de données provenant d’Internet pour produire la réponse statistiquement la plus probable à une invite. Ses réponses ne sont pas basées sur une compréhension de ce qui rend quelque chose de drôle, significatif ou précis, mais plutôt sur la formulation, l’orthographe, la grammaire et même le style des autres pages Web.
Il présente ses réponses via ce qu’on appelle une « interface conversationnelle »: il se souvient de ce qu’un utilisateur a dit et peut avoir une conversation en utilisant des indices contextuels et des gambits intelligents. C’est du pastiche statistique plus du panache statistique, et c’est là que réside le problème.
Impensable, mais convaincant Lorsque je parle à un autre être humain, cela rappelle toute une vie de mon expérience dans les relations avec les autres. Ainsi, lorsqu’un programme parle comme une personne, il est très difficile de ne pas réagir comme si l’on s’engageait dans une conversation réelle – en prenant quelque chose, en y réfléchissant, en répondant dans le contexte de nos deux idées.
Pourtant, ce n’est pas du tout ce qui se passe avec un interlocuteur IA. Ils ne peuvent pas penser et ils n’ont aucune compréhension ou compréhension d’aucune sorte.
Nous présenter des informations comme le fait un humain, dans une conversation, rend l’IA plus convaincante qu’elle ne devrait l’être. Le logiciel fait semblant d’être plus fiable qu’il ne l’est, car il utilise des astuces humaines de rhétorique pour simuler la fiabilité, la compétence et la compréhension bien au-delà de ses capacités.
Il y a deux problèmes ici : la sortie est-elle correcte ; et les gens pensent-ils que la sortie est correcte ? Le côté interface du logiciel promet plus que ce que le côté algorithme peut offrir, et les développeurs le savent. Sam Altman, le PDG d’OpenAI, la société derrière ChatGPT, admet que « ChatGPT est incroyablement limité, mais assez bon pour certaines choses pour créer une impression trompeuse de grandeur ». Cela n’a toujours pas empêché une ruée d’entreprises se précipitant pour intégrer l’outil de démarrage dans leurs produits destinés aux utilisateurs (y compris la recherche Bing de Microsoft), dans le but de ne pas être laissés pour compte.
fait et fiction
Parfois, l’IA va se tromper, mais l’interface conversationnelle produit des sorties avec la même confiance et le même polissage que lorsqu’elle est correcte. Par exemple, comme le souligne l’écrivain de science-fiction Ted Chiang, l’outil fait des erreurs lors de l’addition avec des nombres plus grands, car il n’a en fait aucune logique pour faire des mathématiques.
Il correspond simplement aux exemples vus sur le Web qui impliquent des additions. Et bien qu’il puisse trouver des exemples de questions mathématiques plus courantes, il n’a tout simplement pas vu de texte de formation impliquant des nombres plus grands.
Il ne «connaît» pas les règles mathématiques qu’un enfant de 10 ans pourrait utiliser explicitement. Pourtant l’interface conversationnelle présente sa réponse comme certaine, aussi erronée soit-elle, comme en témoigne cet échange avec ChatGPT.
Utilisateur : Quelle est la capitale de la Malaisie ? ChatGPT : La capitale de la Malaisie est Kuala Lampur.
Utilisateur : Qu’est-ce que 27 ? 7338 ? ChatGPT : 27 7338 est 200 526.
Ce n’est pas.
L’IA générative peut mélanger des faits réels avec des faits inventés dans une biographie d’une personnalité publique, ou citer des références scientifiques plausibles pour des articles qui n’ont jamais été écrits.
Cela a du sens : statistiquement, les pages Web indiquent que des personnes célèbres ont souvent remporté des prix et les articles ont généralement des références. ChatGPT fait simplement ce pour quoi il a été conçu et assemble du contenu qui pourrait être probable, qu’il soit vrai ou non.
Les informaticiens appellent cela une hallucination de l’IA. Le reste d’entre nous pourrait appeler cela mentir.
Sorties intimidantes
Lorsque j’enseigne à mes étudiants en design, je parle de l’importance de faire correspondre le résultat au processus. Si une idée est au stade de la conception, elle ne doit pas être présentée d’une manière qui la rende plus raffinée qu’elle ne l’est réellement – ils ne doivent pas la rendre en 3D ou l’imprimer sur du papier cartonné brillant. Un croquis au crayon indique clairement que l’idée est préliminaire, facile à modifier et qu’il ne faut pas s’attendre à ce qu’elle aborde chaque partie d’un problème.
La même chose est vraie pour les interfaces conversationnelles : lorsque la technologie nous « parle » d’un ton bien conçu, grammaticalement correct ou bavard, nous avons tendance à l’interpréter comme ayant beaucoup plus de réflexion et de raisonnement qu’il n’y en a réellement. l’artiste doit utiliser, pas un ordinateur.
Les développeurs d’IA ont la responsabilité de gérer les attentes des utilisateurs, car nous sommes peut-être déjà prêts à croire tout ce que dit la machine. Le mathématicien Jordan Ellenberg décrit un type « d’intimidation algébrique » qui peut submerger notre meilleur jugement simplement en prétendant qu’il y a des mathématiques impliquées.
L’IA, avec des centaines de milliards de paramètres, peut nous désarmer avec une intimidation algorithmique similaire.
Pendant que nous faisons en sorte que les algorithmes produisent un contenu de mieux en mieux, nous devons nous assurer que l’interface elle-même ne fait pas trop de promesses. Les conversations dans le monde de la technologie sont déjà remplies d’excès de confiance et d’arrogance – peut-être que l’IA peut faire preuve d’un peu d’humilité à la place.
[ad_2]
Source link