[ad_1]
Entreprises. Avec tout le monde ayant accès au système ChatGPT, le débat sur les dangers de l’intelligence artificielle (IA) a atteint le grand public. Dans de nombreux domaines, l’IA a déjà dépassé les capacités humaines. Mais ce qui dérange dans ChatGPT, ce n’est plus la puissance de raisonnement ou de calcul, mais sa capacité à mobiliser une grande masse de textes pour répondre, selon les règles communes du discours, à toutes les questions qui lui sont posées.
Observateurs, entreprises et enseignants s’inquiétaient alors de voir le système développer des synthèses professionnelles ou des devoirs académiques perçus comme « satisfaisants ». Mais n’est-ce pas plutôt cette satisfaction que ChatGPT nous oblige à questionner ?
À ses débuts, l’IA visait à capturer des connaissances techniques et spécialisées. Les systèmes experts des années 1980 fournissent des diagnostics médicaux, aident les réparateurs de machines ou pilotent des robots. La connaissance qu’ils captent est celle d’un raisonnement mobilisant les faits et les règles d’un métier. Cette approche a connu sa percée la plus spectaculaire avec les logiciels de jeux d’échecs ou de go, qui ont battu les plus grands maîtres.
La deuxième étape de l’IA adopte l’approche opposée. Au lieu de partir du savoir d’un expert, on va essayer de le générer en entraînant un algorithme à partir de gigantesques bases de données. La reconnaissance faciale est emblématique de cette approche. L’IA peut alors apprendre à imiter un style littéraire ou musical et générer des formes complexes à partir de millions d’exemples.
Un parfait rhétoricien
Mais il n’a pas fallu longtemps aux utilisateurs avisés de ChatGPT pour se rendre compte que le système raisonne et fait des erreurs de calcul. Tout comme il s’avère, par exemple, être un piètre joueur d’échecs. Cependant, il peut facilement exposer la théorie de la relativité générale d’Einstein, donner les règles d’une société civile immobilière ou aborder un dilemme moral avec équilibre.
ChatGPT agit donc en parfait rhétoricien, qui, sans comprendre de quoi il parle, recherche dans sa mémoire – bien supérieure à celle d’un humain – les phrases les plus établies, donc les lieux communs, qu’il va ensuite agencer en réponse. convaincant.
Cette rhétorique fascinante place les managers en attente de rapports et les enseignants corrigeant des mémoires devant un miroir inquiétant : doivent-ils encore se contenter de synthèses humaines, s’ils répètent, comme ChatGPT, ce que disent les textes ?
Mais s’ils doivent au contraire solliciter des propositions originales, sauront-ils les reconnaître et y répondre eux-mêmes ? Des recherches expérimentales récentes montrent que pour qu’un leader ou un enseignant puisse accueillir des propositions innovantes ou surprenantes, il doit lui-même être capable de détecter les biais de ses propres connaissances et les limites de son processus de création (Justine BoudierModéliser et expérimenter un « leader défixant » en situation de fixations hétérogènes, thèse PSL, Mines Paris, 2022)
Il vous reste 11,5% de cet article à lire. Ce qui suit est réservé aux abonnés.
[ad_2]
Source link