[ad_1]
L’industrie technologique indienne n’est pas audacieuse dans son adoption de l’intelligence artificielle. Il espère créer des solutions pour les entreprises clientes en s’appuyant sur l’investissement de quelqu’un d’autre dans les technologies fondamentales, ce qui n’est guère une stratégie pour un succès révolutionnaire.
Les débuts à haute tension de ChatGPT l’année dernière ont galvanisé la Chine. Ernie de Baidu, qui prétend avoir surpassé le modèle d’OpenAI soutenu par Microsoft sur certaines mesures, a entraîné Ant Group et JD.com dans la course à la construction de bots. Des tsars de la technologie comme Wang Xiaochuan, le fondateur du moteur de recherche Sogou, ont également rejoint la quête, attirant des talents dans l’industrie. En ce qui concerne les flux d’argent, les États-Unis battent toujours la Chine six contre un, mais le nombre d’accords de capital-risque dans l’industrie de l’IA du pays asiatique dépasse déjà la technologie grand public, selon les données de Preqin.
Le paysage des startups indiennes, quant à lui, est pris dans une distorsion temporelle, avec des investisseurs embarrassés qui réduisent leurs participations dans Byju’s, une société d’éducation en ligne qui s’effondre sous le poids de sa propre croissance imprudente. Le financement facile de l’ère de la pandémie s’est tari. Alors que les financiers poussent les fondateurs à la rentabilité, ils découvrent que dans de nombreux cas, même les revenus sont faux.
C’était le moment idéal pour les puissances indiennes traditionnelles du codage – telles que Tata Consultancy Services et son rival Infosys – de mettre à profit leur puissance financière supérieure et d’affirmer leur leadership dans l’IA générative. Mais ils ont leurs propres défis de gouvernance. Le TCS est distrait par un scandale de rebuts contre des emplois aux États-Unis qu’il tente désespérément de minimiser. Infosys est occupé à gérer le contrecoup de son association avec une société de lobbying australienne au centre d’une enquête parlementaire Down Under.
Même sans ces défis, les spécialistes de l’externalisation ne sont pas exactement dans une situation idéale. La demande pour leurs services est faible, notamment en raison de la tourmente du secteur bancaire mondial. Les décisions sur les dépenses informatiques ont ralenti. Une concurrence plus vive pour un plus petit gâteau pourrait signifier une baisse des commandes et une détérioration des prix, ont déclaré les analystes de JPMorgan Chase & Co. plus tôt ce mois-ci. Pendant ce temps, la masse salariale des entreprises indiennes est gonflée, grâce à leur frénésie d’embauche pendant la pandémie lorsque les clients se bousculaient pour numériser leurs opérations.
Il n’est donc pas étonnant que l’approche de l’industrie de l’IA soit défensive, visant à assurer aux investisseurs que la technologie ne menace guère son modèle éprouvé d’arbitrage des coûts de main-d’œuvre. Lorsque trois lignes de programmation C ont remplacé 30 lignes de langage d’assemblage, cela n’a pas entraîné de licenciements massifs, mais une explosion de l’écriture de code. De même, lorsque l’externalisation a rendu les logiciels d’entreprise moins chers, les budgets informatiques ne se sont pas dégonflés. Les volumes ont augmenté tandis que les prix baissaient. Pourquoi cette fois-ci devrait-elle être différente, demande le rapport annuel du TCS pour 2022-2023.
C’est une réaction plutôt flegmatique à une révolution dont les possibilités commencent à effrayer ses propres créateurs.
ChatGPT peut sûrement écrire des extraits de code ou effectuer un contrôle de qualité sur eux, réduisant potentiellement les heures de facturation. Mais ce n’est pas le point qui doit être abordé. Être entouré de machines plus intelligentes que n’importe lequel d’entre nous a des perspectives troublantes pour l’avenir de l’humanité, surtout si les algorithmes sont contrôlés par des acteurs maléfiques. Même en laissant de côté ces profondes préoccupations concernant un avenir potentiellement dystopique, les questions les plus prosaïques sont également importantes pour les utilisateurs de logiciels d’entreprise. Les entreprises, de la banque au commerce de détail et à l’aviation, doivent décider de leur engagement avec les soi-disant grands modèles de langage. Et ils ne peuvent pas être sûrs que retirer quelque chose du commerce est bon pour la confidentialité des données. Que font exactement les entreprises indiennes pour saisir cette opportunité ?
Infosys, basée à Bengaluru, a adopté une stratégie de mix-and-match, afin que ses clients puissent choisir parmi 150 modèles pré-formés sur plus de 10 plates-formes, puis les exécuter sur n’importe quel cloud ou serveurs internes. Le rapport annuel du TCS indique que ses recherches sur les grands modèles de langage sont orientées vers « la création de techniques pour la génération de code contrôlée, la réponse aux questions, la génération d’images cohérentes, la résolution de problèmes d’optimisation et d’autres problèmes d’IA de base ».
Cependant, si Alphabet met en garde les employés sur la quantité d’informations qu’ils peuvent partager avec les chatbots, y compris son propre Bard, alors comment TCS ou Infosys peuvent-ils supposer que les multinationales mondiales seront à l’aise de planter leurs tentes sur des plateformes accessibles à presque tout le monde ?
Les entreprises indiennes de services logiciels devraient également créer des modèles de langage à partir de zéro pour elles-mêmes et leurs clients. Oui, il faut de la puissance de calcul et des talents d’ingénieur pour former des programmes basés sur des réseaux de neurones sur de grandes quantités d’entrées en langage naturel. Mais ne pas emprunter cette voie et chercher à connecter les clients via des interfaces de programmation d’applications, ou API, aux produits existants est inutilement timide, en particulier lorsqu’aucune entreprise sérieuse ne souhaite s’appuyer sur un modèle de base externe accessible au public pour les tâches critiques.
Les propres recherches de Google sur l’extraction de données de formation, ou le potentiel des modèles à divulguer des détails à partir des données sur lesquelles ils sont formés, montrent que le risque est bien réel.
La création de technologies fondamentales propriétaires bien gardées ne nécessite pas particulièrement de ressources. Pour le co-fondateur de Nvidia, Jensen Huang, dont les puces sont au centre de l’excitation de l’IA, même un modeste budget de 10 millions de dollars (environ Rs. 82 crore) pour les modèles à grande échelle n’est pas irréaliste. Les pays qui ne sont pas traditionnellement connus comme des producteurs de technologie se font également remarquer pour leurs percées. L’Institut d’innovation technologique d’Abu Dhabi a rendu son Falcon 40B – formé sur 40 milliards de paramètres – libre de droits pour un usage commercial.
Les Chinois n’ont clairement pas adhéré à l’idée que la Silicon Valley contrôlera les clés de l’IA générative. Alors que l’orientation excessive vers les services des éditeurs de logiciels indiens a signifié très peu de succès dans le développement de produits, le moment est venu d’avoir de l’ambition et une nouvelle stratégie qui va au-delà de la facturation de frais aux clients pour peaufiner GPT-4 d’OpenAI, Bard de Google ou LLaMA de Meta Platforms. avec des données spécialisées.
Lors d’une récente visite dans le pays, on a demandé au PDG d’OpenAI, Sam Altman, si quelqu’un en Inde avec 10 millions de dollars (environ 82 crores de roupies) à investir devrait oser construire quelque chose d’original dans l’IA. Il a dit: « La façon dont cela fonctionne est que nous allons vous dire qu’il est totalement sans espoir de rivaliser avec nous sur des modèles de base de formation (donc) vous ne devriez pas essayer, et c’est votre travail d’aimer, essayez de toute façon. »
Le message d’Abu Dhabi est très clair : Bangalore devrait quand même essayer.
© 2023 Bloomberg LP
[ad_2]
Source link