[ad_1]
Personne ne vend l’avenir avec plus de maîtrise que l’industrie technologique. Selon ses partisans, nous vivrons tous dans le «métaverse», construirons notre infrastructure financière sur «web3» et alimenterons nos vies avec «l’intelligence artificielle». Ces trois termes sont des mirages qui ont rapporté des milliards de dollars, malgré la morsure de la réalité. L’intelligence artificielle évoque notamment la notion de machines pensantes. Mais aucune machine ne peut penser, et aucun logiciel n’est vraiment intelligent. L’expression seule peut être l’un des termes marketing les plus réussis de tous les temps.
La semaine dernière, OpenAI a annoncé GPT-4, une mise à niveau majeure de la technologie qui sous-tend ChatGPT. Le système semble encore plus humain que son prédécesseur, renforçant naturellement les notions de son intelligence. Mais GPT-4 et d’autres grands modèles de langage comme celui-ci ne font que refléter des bases de données de texte – près d’un billion de mots pour le modèle précédent – dont l’échelle est difficile à envisager. Aidés par une armée d’humains le reprogrammant avec des corrections, les modèles glosent des mots ensemble en fonction de la probabilité. Ce n’est pas de l’intelligence.
Ces systèmes sont formés pour générer des textes qui semblent plausibles, mais ils sont commercialisés comme de nouveaux oracles de connaissances pouvant être connectés aux moteurs de recherche. C’est téméraire alors que GPT-4 continue de faire des erreurs, et il y a seulement quelques semaines, Microsoft et Google d’Alphabet ont tous deux subi des démos embarrassantes dans lesquelles leurs nouveaux moteurs de recherche ont échoué sur des faits.
Ne pas aider les choses : des termes tels que « réseaux de neurones » et « apprentissage en profondeur » ne font que renforcer l’idée que ces programmes ressemblent à des humains. Les réseaux de neurones ne sont en aucun cas des copies du cerveau humain ; ils ne s’inspirent que vaguement de son fonctionnement. Les efforts de longue haleine pour tenter de reproduire le cerveau humain avec ses quelque 85 milliards de neurones ont tous échoué. Les scientifiques les plus proches sont venus imiter le cerveau d’un ver, avec 302 neurones.
Nous avons besoin d’un lexique différent qui ne propage pas la pensée magique sur les systèmes informatiques et qui n’absout pas les personnes qui conçoivent ces systèmes de leurs responsabilités. Quelle est la meilleure alternative ? Des technologues raisonnables ont essayé pendant des années de remplacer «l’IA» par des «systèmes d’apprentissage automatique», mais cela ne sort pas de la langue de la même manière.
Stefano Quintarelli, un ancien politicien et technologue italien, a proposé une autre alternative, « Approches systémiques des algorithmes d’apprentissage et des inférences automatiques » ou SALAMI, pour souligner le ridicule des questions que les gens se posent à propos de l’IA : SALAMI est-il sensible ? SALAMI aura-t-il un jour la suprématie sur les humains ?
La tentative la plus désespérée d’alternative sémantique est probablement la plus précise : « logiciel ».
« Mais, » je vous entends demander, « qu’y a-t-il de mal à utiliser un petit raccourci métaphorique pour décrire une technologie qui semble si magique? »
La réponse est que l’attribution d’intelligence aux machines leur donne une indépendance imméritée vis-à-vis des humains, et cela abdique leurs créateurs de la responsabilité de leur impact. Si nous considérons ChatGPT comme « intelligent », nous sommes moins enclins à essayer de tenir la startup de San Francisco OpenAI, son créateur, pour responsable de ses inexactitudes et de ses biais. Cela crée également une complaisance fataliste chez les humains qui subissent les effets néfastes de la technologie ; bien que « l’IA » ne prendra pas votre travail ou ne plagiera pas vos créations artistiques – d’autres humains le feront.
Le problème est de plus en plus pressant maintenant que les entreprises, des Meta Platforms à Snap en passant par Morgan Stanley, se précipitent pour brancher des chatbots et des générateurs de texte et d’image dans leurs systèmes. Stimulé par sa nouvelle course aux armements avec Google, Microsoft intègre la technologie de modèle de langage d’OpenAI, encore largement non testée, dans ses applications professionnelles les plus populaires, notamment Word, Outlook et Excel. « Copilot changera fondamentalement la façon dont les gens travaillent avec l’IA et comment l’IA fonctionne avec les gens », a déclaré Microsoft à propos de sa nouvelle fonctionnalité.
Mais pour les clients, la promesse de travailler avec des machines intelligentes est presque trompeuse. « [AI is] une de ces étiquettes qui expriment une sorte d’espoir utopique plutôt que la réalité actuelle, un peu comme la montée de l’expression « armes intelligentes » pendant la première guerre du Golfe impliquait une vision exsangue d’un ciblage totalement précis qui n’est toujours pas possible », explique Steven Poole, auteur du livre Unspeak, sur le pouvoir dangereux des mots et des étiquettes.
Margaret Mitchell, une informaticienne licenciée par Google après avoir publié un article critiquant les biais des grands modèles de langage, a décrit à contrecœur son travail comme étant basé sur « l’IA » ces dernières années. « Avant… des gens comme moi disaient que nous travaillions sur ‘l’apprentissage automatique’. C’est un excellent moyen d’attirer l’attention des gens », a-t-elle admis lors d’un panel de conférence vendredi.
Son ancienne collègue de Google et fondatrice de l’Institut de recherche sur l’intelligence artificielle distribuée, Timnit Gebru, a déclaré qu’elle n’avait également commencé à dire « IA » qu’en 2013 : « C’est devenu la chose à dire ».
« C’est terrible mais je fais ça aussi », a ajouté Mitchell. « J’appelle tout ce que je touche ‘IA’ parce qu’alors les gens écouteront ce que je dis. »
Malheureusement, « l’IA » est tellement ancrée dans notre vocabulaire qu’il sera quasiment impossible de s’en défaire, les guillemets aériens obligatoires difficiles à retenir. À tout le moins, nous devrions nous rappeler à quel point de tels systèmes sont liés aux gestionnaires humains qui devraient être tenus responsables de leurs effets secondaires.
L’auteur Poole dit qu’il préfère appeler les chatbots comme ChatGPT et les générateurs d’images comme Midjourney des « machines à plagiat géantes » car ils recombinent principalement la prose et les images qui ont été créées à l’origine par des humains. « Je ne suis pas sûr qu’il s’imposera », dit-il.
À plus d’un titre, nous sommes vraiment coincés avec « l’IA ».
© 2023 Bloomberg LP
[ad_2]
Source link