L’intelligence artificielle s’explique aux humains, et ça porte ses fruits

<p> &lbrack;ad&lowbar;1&rsqb;<br &sol;>&NewLine;<&sol;p>&NewLine;<div>&NewLine;<p>LinkedIn de Microsoft Corp a augmenté ses revenus d&rsquo&semi;abonnement de 8&percnt; après avoir doté son équipe de vente d&rsquo&semi;un logiciel d&rsquo&semi;intelligence artificielle qui non seulement prédit les clients à risque d&rsquo&semi;annulation&comma; mais explique également comment il est arrivé à sa conclusion&period;<&sol;p>&NewLine;<p>Le système&comma; introduit en juillet dernier et qui sera décrit dans un article de blog LinkedIn mercredi&comma; marque une percée pour amener l&rsquo&semi;IA à « montrer son travail » de manière utile&period;<&sol;p>&NewLine;<p>Alors que les scientifiques de l&rsquo&semi;IA n&rsquo&semi;ont aucun problème à concevoir des systèmes qui font des prédictions précises sur toutes sortes de résultats commerciaux&comma; ils découvrent que pour rendre ces outils plus efficaces pour les opérateurs humains&comma; l&rsquo&semi;IA peut avoir besoin de s&rsquo&semi;expliquer par un autre algorithme&period;<&sol;p>&NewLine;<p>Le domaine émergent de «l&rsquo&semi;IA explicable»&comma; ou XAI&comma; a stimulé d&rsquo&semi;importants investissements dans la Silicon Valley alors que les startups et les géants du cloud se font concurrence pour rendre les logiciels opaques plus compréhensibles et ont alimenté les discussions à Washington et à Bruxelles où les régulateurs veulent s&rsquo&semi;assurer que la prise de décision automatisée est effectuée&period; équitablement et en toute transparence&period;<&sol;p>&NewLine;<p>La technologie de l&rsquo&semi;IA peut perpétuer des préjugés sociétaux comme ceux concernant la race&comma; le sexe et la culture&period; Certains scientifiques de l&rsquo&semi;IA considèrent les explications comme un élément crucial pour atténuer ces résultats problématiques&period;<&sol;p>&NewLine;<p>Les régulateurs américains de la protection des consommateurs&comma; y compris la Federal Trade Commission&comma; ont averti au cours des deux dernières années que l&rsquo&semi;IA qui n&rsquo&semi;est pas explicable pourrait faire l&rsquo&semi;objet d&rsquo&semi;une enquête&period; L&rsquo&semi;année prochaine&comma; l&rsquo&semi;UE pourrait adopter la loi sur l&rsquo&semi;intelligence artificielle&comma; un ensemble d&rsquo&semi;exigences complètes prévoyant notamment que les utilisateurs soient en mesure d&rsquo&semi;interpréter les prédictions automatisées&period;<&sol;p>&NewLine;<p>Les partisans de l&rsquo&semi;IA explicable affirment qu&rsquo&semi;elle a contribué à accroître l&rsquo&semi;efficacité de l&rsquo&semi;application de l&rsquo&semi;IA dans des domaines tels que la santé et les ventes&period; Google Cloud vend des services d&rsquo&semi;IA explicables qui&comma; par exemple&comma; indiquent aux clients essayant d&rsquo&semi;affiner leurs systèmes quels pixels et bientôt quels exemples de formation importaient le plus pour prédire le sujet d&rsquo&semi;une photo&period;<&sol;p>&NewLine;<p>Mais les critiques disent que les explications de la raison pour laquelle l&rsquo&semi;IA a prédit ce qu&rsquo&semi;elle a fait sont trop peu fiables car la technologie de l&rsquo&semi;IA pour interpréter les machines n&rsquo&semi;est pas assez bonne&period;<&sol;p>&NewLine;<p>LinkedIn et d&rsquo&semi;autres qui développent une IA explicable reconnaissent que chaque étape du processus &&num;8211&semi; analyser les prédictions&comma; générer des explications&comma; confirmer leur exactitude et les rendre exploitables pour les utilisateurs &&num;8211&semi; peut encore être améliorée&period;<&sol;p>&NewLine;<p>Mais après deux ans d&rsquo&semi;essais et d&rsquo&semi;erreurs dans une application à enjeux relativement faibles&comma; LinkedIn affirme que sa technologie a donné une valeur pratique&period; La preuve en est l&rsquo&semi;augmentation de 8 &percnt; des réservations de renouvellement au cours de l&rsquo&semi;exercice en cours&comma; supérieure à la croissance normalement attendue&period; LinkedIn a refusé de préciser l&rsquo&semi;avantage en dollars&comma; mais l&rsquo&semi;a décrit comme important&period;<&sol;p>&NewLine;<p>Auparavant&comma; les vendeurs de LinkedIn s&rsquo&semi;appuyaient sur leur propre intuition et sur des alertes automatisées ponctuelles concernant l&rsquo&semi;adoption des services par les clients&period;<&sol;p>&NewLine;<p>Désormais&comma; l&rsquo&semi;IA gère rapidement la recherche et l&rsquo&semi;analyse&period; Surnommé CrystalCandle par LinkedIn&comma; il signale les tendances inaperçues et son raisonnement aide les vendeurs à affiner leurs tactiques pour garder les clients à risque à bord et proposer aux autres des mises à niveau&period;<&sol;p>&NewLine;<p>LinkedIn affirme que les recommandations basées sur des explications se sont étendues à plus de 5 000 de ses employés commerciaux couvrant les offres de recrutement&comma; de publicité&comma; de marketing et de formation&period;<&sol;p>&NewLine;<p>« Cela a aidé les vendeurs expérimentés en les dotant d&rsquo&semi;informations spécifiques pour naviguer dans les conversations avec les prospects&period; Cela a également aidé les nouveaux vendeurs à plonger immédiatement »&comma; a déclaré Parvez Ahammad&comma; directeur de l&rsquo&semi;apprentissage automatique de LinkedIn et responsable de la recherche appliquée en science des données&period;<&sol;p>&NewLine;<p>EXPLIQUER OU NE PAS EXPLIQUER &quest;<&sol;p>&NewLine;<p>En 2020&comma; LinkedIn avait d&rsquo&semi;abord fourni des prédictions sans explications&period; Un score avec une précision d&rsquo&semi;environ 80 &percnt; indique la probabilité qu&rsquo&semi;un client dont le renouvellement est imminent mettra à niveau&comma; maintiendra ou annulera&period;<&sol;p>&NewLine;<p>Les vendeurs n&rsquo&semi;ont pas été entièrement conquis&period; L&rsquo&semi;équipe vendant le logiciel de recrutement et d&&num;8217&semi;embauche Talent Solutions de LinkedIn n&rsquo&semi;était pas claire sur la façon d&rsquo&semi;adapter sa stratégie&comma; en particulier lorsque les chances qu&rsquo&semi;un client ne renouvelle pas n&rsquo&semi;étaient pas meilleures qu&rsquo&semi;un tirage au sort&period;<&sol;p>&NewLine;<p>En juillet dernier&comma; ils ont commencé à voir un court paragraphe généré automatiquement qui met en évidence les facteurs influençant le score&period;<&sol;p>&NewLine;<p>Par exemple&comma; l&rsquo&semi;IA a décidé qu&rsquo&semi;un client était susceptible d&rsquo&semi;effectuer une mise à niveau car il avait augmenté de 240 employés au cours de l&rsquo&semi;année écoulée et que les candidats étaient devenus 146 &percnt; plus réactifs au cours du mois dernier&period;<&sol;p>&NewLine;<p>De plus&comma; un indice qui mesure le succès global d&rsquo&semi;un client avec les outils de recrutement de LinkedIn a bondi de 25 &percnt; au cours des trois derniers mois&period;<&sol;p>&NewLine;<p>Lekha Doshi&comma; vice-président des opérations mondiales de LinkedIn&comma; a déclaré que sur la base des explications&comma; les représentants commerciaux orientent désormais les clients vers la formation&comma; le support et les services qui améliorent leur expérience et les incitent à dépenser&period;<&sol;p>&NewLine;<p>Mais certains experts en IA se demandent si des explications sont nécessaires&period; Ils pourraient même faire du mal&comma; engendrant un faux sentiment de sécurité dans l&rsquo&semi;IA ou en incitant à des sacrifices de conception qui rendent les prédictions moins précises&comma; selon les chercheurs&period;<&sol;p>&NewLine;<p>Fei-Fei Li&comma; codirecteur de l&rsquo&semi;Institut d&rsquo&semi;intelligence artificielle centrée sur l&rsquo&semi;homme de l&rsquo&semi;Université de Stanford&comma; a déclaré que les gens utilisent des produits tels que Tylenol et Google Maps dont le fonctionnement interne n&rsquo&semi;est pas parfaitement compris&period; Dans de tels cas&comma; des tests et une surveillance rigoureux ont dissipé la plupart des doutes quant à leur efficacité&period;<&sol;p>&NewLine;<p>De même&comma; les systèmes d&rsquo&semi;IA dans leur ensemble pourraient être jugés équitables même si les décisions individuelles sont impénétrables&comma; a déclaré Daniel Roy&comma; professeur agrégé de statistiques à l&rsquo&semi;Université de Toronto&period;<&sol;p>&NewLine;<p>LinkedIn affirme que l&rsquo&semi;intégrité d&rsquo&semi;un algorithme ne peut être évaluée sans comprendre sa pensée&period;<&sol;p>&NewLine;<p>Il soutient également que des outils comme son CrystalCandle pourraient aider les utilisateurs d&rsquo&semi;IA dans d&rsquo&semi;autres domaines&period; Les médecins pourraient apprendre pourquoi l&rsquo&semi;IA prédit qu&rsquo&semi;une personne est plus à risque de contracter une maladie&comma; ou les gens pourraient savoir pourquoi l&rsquo&semi;IA a recommandé de leur refuser une carte de crédit&period;<&sol;p>&NewLine;<p>L&rsquo&semi;espoir est que les explications révèlent si un système s&rsquo&semi;aligne sur les concepts et les valeurs que l&rsquo&semi;on souhaite promouvoir&comma; a déclaré Been Kim&comma; chercheur en intelligence artificielle chez Google&period;<&sol;p>&NewLine;<p>« Je considère l&rsquo&semi;interprétabilité comme permettant finalement une conversation entre les machines et les humains »&comma; a-t-elle déclaré&period; « Si nous voulons vraiment permettre la collaboration homme-machine&comma; nous en avons besoin&period; »<&sol;p>&NewLine;<p><em>© Thomson Reuters 2022<&sol;em><&sol;p>&NewLine;<hr&sol;>&NewLine;<&sol;div>&NewLine;<p>&lbrack;ad&lowbar;2&rsqb;<br &sol;>&NewLine;<br &sol;><a href&equals;"https&colon;&sol;&sol;gadgets360&period;com&sol;apps&sol;features&sol;ai-explainable-artificial-intelligence-xai-microsoft-linkedin-2866355&num;rss-gadgets-all">Source link <&sol;a><&sol;p>&NewLine;

Quitter la version mobile