<p> [ad_1]<br />
</p>
<div>
<p>LinkedIn de Microsoft Corp a augmenté ses revenus d&rsquo;abonnement de 8% après avoir doté son équipe de vente d&rsquo;un logiciel d&rsquo;intelligence artificielle qui non seulement prédit les clients à risque d&rsquo;annulation, mais explique également comment il est arrivé à sa conclusion.</p>
<p>Le système, introduit en juillet dernier et qui sera décrit dans un article de blog LinkedIn mercredi, marque une percée pour amener l&rsquo;IA à « montrer son travail » de manière utile.</p>
<p>Alors que les scientifiques de l&rsquo;IA n&rsquo;ont aucun problème à concevoir des systèmes qui font des prédictions précises sur toutes sortes de résultats commerciaux, ils découvrent que pour rendre ces outils plus efficaces pour les opérateurs humains, l&rsquo;IA peut avoir besoin de s&rsquo;expliquer par un autre algorithme.</p>
<p>Le domaine émergent de «l&rsquo;IA explicable», ou XAI, a stimulé d&rsquo;importants investissements dans la Silicon Valley alors que les startups et les géants du cloud se font concurrence pour rendre les logiciels opaques plus compréhensibles et ont alimenté les discussions à Washington et à Bruxelles où les régulateurs veulent s&rsquo;assurer que la prise de décision automatisée est effectuée. équitablement et en toute transparence.</p>
<p>La technologie de l&rsquo;IA peut perpétuer des préjugés sociétaux comme ceux concernant la race, le sexe et la culture. Certains scientifiques de l&rsquo;IA considèrent les explications comme un élément crucial pour atténuer ces résultats problématiques.</p>
<p>Les régulateurs américains de la protection des consommateurs, y compris la Federal Trade Commission, ont averti au cours des deux dernières années que l&rsquo;IA qui n&rsquo;est pas explicable pourrait faire l&rsquo;objet d&rsquo;une enquête. L&rsquo;année prochaine, l&rsquo;UE pourrait adopter la loi sur l&rsquo;intelligence artificielle, un ensemble d&rsquo;exigences complètes prévoyant notamment que les utilisateurs soient en mesure d&rsquo;interpréter les prédictions automatisées.</p>
<p>Les partisans de l&rsquo;IA explicable affirment qu&rsquo;elle a contribué à accroître l&rsquo;efficacité de l&rsquo;application de l&rsquo;IA dans des domaines tels que la santé et les ventes. Google Cloud vend des services d&rsquo;IA explicables qui, par exemple, indiquent aux clients essayant d&rsquo;affiner leurs systèmes quels pixels et bientôt quels exemples de formation importaient le plus pour prédire le sujet d&rsquo;une photo.</p>
<p>Mais les critiques disent que les explications de la raison pour laquelle l&rsquo;IA a prédit ce qu&rsquo;elle a fait sont trop peu fiables car la technologie de l&rsquo;IA pour interpréter les machines n&rsquo;est pas assez bonne.</p>
<p>LinkedIn et d&rsquo;autres qui développent une IA explicable reconnaissent que chaque étape du processus &#8211; analyser les prédictions, générer des explications, confirmer leur exactitude et les rendre exploitables pour les utilisateurs &#8211; peut encore être améliorée.</p>
<p>Mais après deux ans d&rsquo;essais et d&rsquo;erreurs dans une application à enjeux relativement faibles, LinkedIn affirme que sa technologie a donné une valeur pratique. La preuve en est l&rsquo;augmentation de 8 % des réservations de renouvellement au cours de l&rsquo;exercice en cours, supérieure à la croissance normalement attendue. LinkedIn a refusé de préciser l&rsquo;avantage en dollars, mais l&rsquo;a décrit comme important.</p>
<p>Auparavant, les vendeurs de LinkedIn s&rsquo;appuyaient sur leur propre intuition et sur des alertes automatisées ponctuelles concernant l&rsquo;adoption des services par les clients.</p>
<p>Désormais, l&rsquo;IA gère rapidement la recherche et l&rsquo;analyse. Surnommé CrystalCandle par LinkedIn, il signale les tendances inaperçues et son raisonnement aide les vendeurs à affiner leurs tactiques pour garder les clients à risque à bord et proposer aux autres des mises à niveau.</p>
<p>LinkedIn affirme que les recommandations basées sur des explications se sont étendues à plus de 5 000 de ses employés commerciaux couvrant les offres de recrutement, de publicité, de marketing et de formation.</p>
<p>« Cela a aidé les vendeurs expérimentés en les dotant d&rsquo;informations spécifiques pour naviguer dans les conversations avec les prospects. Cela a également aidé les nouveaux vendeurs à plonger immédiatement », a déclaré Parvez Ahammad, directeur de l&rsquo;apprentissage automatique de LinkedIn et responsable de la recherche appliquée en science des données.</p>
<p>EXPLIQUER OU NE PAS EXPLIQUER ?</p>
<p>En 2020, LinkedIn avait d&rsquo;abord fourni des prédictions sans explications. Un score avec une précision d&rsquo;environ 80 % indique la probabilité qu&rsquo;un client dont le renouvellement est imminent mettra à niveau, maintiendra ou annulera.</p>
<p>Les vendeurs n&rsquo;ont pas été entièrement conquis. L&rsquo;équipe vendant le logiciel de recrutement et d&#8217;embauche Talent Solutions de LinkedIn n&rsquo;était pas claire sur la façon d&rsquo;adapter sa stratégie, en particulier lorsque les chances qu&rsquo;un client ne renouvelle pas n&rsquo;étaient pas meilleures qu&rsquo;un tirage au sort.</p>
<p>En juillet dernier, ils ont commencé à voir un court paragraphe généré automatiquement qui met en évidence les facteurs influençant le score.</p>
<p>Par exemple, l&rsquo;IA a décidé qu&rsquo;un client était susceptible d&rsquo;effectuer une mise à niveau car il avait augmenté de 240 employés au cours de l&rsquo;année écoulée et que les candidats étaient devenus 146 % plus réactifs au cours du mois dernier.</p>
<p>De plus, un indice qui mesure le succès global d&rsquo;un client avec les outils de recrutement de LinkedIn a bondi de 25 % au cours des trois derniers mois.</p>
<p>Lekha Doshi, vice-président des opérations mondiales de LinkedIn, a déclaré que sur la base des explications, les représentants commerciaux orientent désormais les clients vers la formation, le support et les services qui améliorent leur expérience et les incitent à dépenser.</p>
<p>Mais certains experts en IA se demandent si des explications sont nécessaires. Ils pourraient même faire du mal, engendrant un faux sentiment de sécurité dans l&rsquo;IA ou en incitant à des sacrifices de conception qui rendent les prédictions moins précises, selon les chercheurs.</p>
<p>Fei-Fei Li, codirecteur de l&rsquo;Institut d&rsquo;intelligence artificielle centrée sur l&rsquo;homme de l&rsquo;Université de Stanford, a déclaré que les gens utilisent des produits tels que Tylenol et Google Maps dont le fonctionnement interne n&rsquo;est pas parfaitement compris. Dans de tels cas, des tests et une surveillance rigoureux ont dissipé la plupart des doutes quant à leur efficacité.</p>
<p>De même, les systèmes d&rsquo;IA dans leur ensemble pourraient être jugés équitables même si les décisions individuelles sont impénétrables, a déclaré Daniel Roy, professeur agrégé de statistiques à l&rsquo;Université de Toronto.</p>
<p>LinkedIn affirme que l&rsquo;intégrité d&rsquo;un algorithme ne peut être évaluée sans comprendre sa pensée.</p>
<p>Il soutient également que des outils comme son CrystalCandle pourraient aider les utilisateurs d&rsquo;IA dans d&rsquo;autres domaines. Les médecins pourraient apprendre pourquoi l&rsquo;IA prédit qu&rsquo;une personne est plus à risque de contracter une maladie, ou les gens pourraient savoir pourquoi l&rsquo;IA a recommandé de leur refuser une carte de crédit.</p>
<p>L&rsquo;espoir est que les explications révèlent si un système s&rsquo;aligne sur les concepts et les valeurs que l&rsquo;on souhaite promouvoir, a déclaré Been Kim, chercheur en intelligence artificielle chez Google.</p>
<p>« Je considère l&rsquo;interprétabilité comme permettant finalement une conversation entre les machines et les humains », a-t-elle déclaré. « Si nous voulons vraiment permettre la collaboration homme-machine, nous en avons besoin. »</p>
<p><em>© Thomson Reuters 2022</em></p>
<hr/>
</div>
<p>[ad_2]<br />
<br /><a href="https://gadgets360.com/apps/features/ai-explainable-artificial-intelligence-xai-microsoft-linkedin-2866355#rss-gadgets-all">Source link </a></p>

L’intelligence artificielle s’explique aux humains, et ça porte ses fruits
-
by thebuzzly
- Categories: TECH
- Tags: artificielleauxçafruitshumainsLintelligenceportesessexplique
Related Content
Sora : la création de vidéos par intelligence artificielle d'OpenAI
by
thebuzzly
18/02/2024