[ad_1]
LinkedIn de Microsoft Corp a augmenté ses revenus d’abonnement de 8% après avoir doté son équipe de vente d’un logiciel d’intelligence artificielle qui non seulement prédit les clients à risque d’annulation, mais explique également comment il est arrivé à sa conclusion.
Le système, introduit en juillet dernier et qui sera décrit dans un article de blog LinkedIn mercredi, marque une percée pour amener l’IA à « montrer son travail » de manière utile.
Alors que les scientifiques de l’IA n’ont aucun problème à concevoir des systèmes qui font des prédictions précises sur toutes sortes de résultats commerciaux, ils découvrent que pour rendre ces outils plus efficaces pour les opérateurs humains, l’IA peut avoir besoin de s’expliquer par un autre algorithme.
Le domaine émergent de «l’IA explicable», ou XAI, a stimulé d’importants investissements dans la Silicon Valley alors que les startups et les géants du cloud se font concurrence pour rendre les logiciels opaques plus compréhensibles et ont alimenté les discussions à Washington et à Bruxelles où les régulateurs veulent s’assurer que la prise de décision automatisée est effectuée. équitablement et en toute transparence.
La technologie de l’IA peut perpétuer des préjugés sociétaux comme ceux concernant la race, le sexe et la culture. Certains scientifiques de l’IA considèrent les explications comme un élément crucial pour atténuer ces résultats problématiques.
Les régulateurs américains de la protection des consommateurs, y compris la Federal Trade Commission, ont averti au cours des deux dernières années que l’IA qui n’est pas explicable pourrait faire l’objet d’une enquête. L’année prochaine, l’UE pourrait adopter la loi sur l’intelligence artificielle, un ensemble d’exigences complètes prévoyant notamment que les utilisateurs soient en mesure d’interpréter les prédictions automatisées.
Les partisans de l’IA explicable affirment qu’elle a contribué à accroître l’efficacité de l’application de l’IA dans des domaines tels que la santé et les ventes. Google Cloud vend des services d’IA explicables qui, par exemple, indiquent aux clients essayant d’affiner leurs systèmes quels pixels et bientôt quels exemples de formation importaient le plus pour prédire le sujet d’une photo.
Mais les critiques disent que les explications de la raison pour laquelle l’IA a prédit ce qu’elle a fait sont trop peu fiables car la technologie de l’IA pour interpréter les machines n’est pas assez bonne.
LinkedIn et d’autres qui développent une IA explicable reconnaissent que chaque étape du processus – analyser les prédictions, générer des explications, confirmer leur exactitude et les rendre exploitables pour les utilisateurs – peut encore être améliorée.
Mais après deux ans d’essais et d’erreurs dans une application à enjeux relativement faibles, LinkedIn affirme que sa technologie a donné une valeur pratique. La preuve en est l’augmentation de 8 % des réservations de renouvellement au cours de l’exercice en cours, supérieure à la croissance normalement attendue. LinkedIn a refusé de préciser l’avantage en dollars, mais l’a décrit comme important.
Auparavant, les vendeurs de LinkedIn s’appuyaient sur leur propre intuition et sur des alertes automatisées ponctuelles concernant l’adoption des services par les clients.
Désormais, l’IA gère rapidement la recherche et l’analyse. Surnommé CrystalCandle par LinkedIn, il signale les tendances inaperçues et son raisonnement aide les vendeurs à affiner leurs tactiques pour garder les clients à risque à bord et proposer aux autres des mises à niveau.
LinkedIn affirme que les recommandations basées sur des explications se sont étendues à plus de 5 000 de ses employés commerciaux couvrant les offres de recrutement, de publicité, de marketing et de formation.
« Cela a aidé les vendeurs expérimentés en les dotant d’informations spécifiques pour naviguer dans les conversations avec les prospects. Cela a également aidé les nouveaux vendeurs à plonger immédiatement », a déclaré Parvez Ahammad, directeur de l’apprentissage automatique de LinkedIn et responsable de la recherche appliquée en science des données.
EXPLIQUER OU NE PAS EXPLIQUER ?
En 2020, LinkedIn avait d’abord fourni des prédictions sans explications. Un score avec une précision d’environ 80 % indique la probabilité qu’un client dont le renouvellement est imminent mettra à niveau, maintiendra ou annulera.
Les vendeurs n’ont pas été entièrement conquis. L’équipe vendant le logiciel de recrutement et d’embauche Talent Solutions de LinkedIn n’était pas claire sur la façon d’adapter sa stratégie, en particulier lorsque les chances qu’un client ne renouvelle pas n’étaient pas meilleures qu’un tirage au sort.
En juillet dernier, ils ont commencé à voir un court paragraphe généré automatiquement qui met en évidence les facteurs influençant le score.
Par exemple, l’IA a décidé qu’un client était susceptible d’effectuer une mise à niveau car il avait augmenté de 240 employés au cours de l’année écoulée et que les candidats étaient devenus 146 % plus réactifs au cours du mois dernier.
De plus, un indice qui mesure le succès global d’un client avec les outils de recrutement de LinkedIn a bondi de 25 % au cours des trois derniers mois.
Lekha Doshi, vice-président des opérations mondiales de LinkedIn, a déclaré que sur la base des explications, les représentants commerciaux orientent désormais les clients vers la formation, le support et les services qui améliorent leur expérience et les incitent à dépenser.
Mais certains experts en IA se demandent si des explications sont nécessaires. Ils pourraient même faire du mal, engendrant un faux sentiment de sécurité dans l’IA ou en incitant à des sacrifices de conception qui rendent les prédictions moins précises, selon les chercheurs.
Fei-Fei Li, codirecteur de l’Institut d’intelligence artificielle centrée sur l’homme de l’Université de Stanford, a déclaré que les gens utilisent des produits tels que Tylenol et Google Maps dont le fonctionnement interne n’est pas parfaitement compris. Dans de tels cas, des tests et une surveillance rigoureux ont dissipé la plupart des doutes quant à leur efficacité.
De même, les systèmes d’IA dans leur ensemble pourraient être jugés équitables même si les décisions individuelles sont impénétrables, a déclaré Daniel Roy, professeur agrégé de statistiques à l’Université de Toronto.
LinkedIn affirme que l’intégrité d’un algorithme ne peut être évaluée sans comprendre sa pensée.
Il soutient également que des outils comme son CrystalCandle pourraient aider les utilisateurs d’IA dans d’autres domaines. Les médecins pourraient apprendre pourquoi l’IA prédit qu’une personne est plus à risque de contracter une maladie, ou les gens pourraient savoir pourquoi l’IA a recommandé de leur refuser une carte de crédit.
L’espoir est que les explications révèlent si un système s’aligne sur les concepts et les valeurs que l’on souhaite promouvoir, a déclaré Been Kim, chercheur en intelligence artificielle chez Google.
« Je considère l’interprétabilité comme permettant finalement une conversation entre les machines et les humains », a-t-elle déclaré. « Si nous voulons vraiment permettre la collaboration homme-machine, nous en avons besoin. »
© Thomson Reuters 2022
[ad_2]
Source link