[ad_1]
Pendant une minute chaude la semaine dernière, il semblait que nous étions déjà au bord d’une IA tueuse.
Plusieurs organes de presse ont rapporté qu’un drone militaire avait attaqué son opérateur après avoir décidé que l’humain faisait obstacle à son objectif. Sauf qu’il s’est avéré que c’était une simulation. Et puis il s’est avéré que la simulation elle-même ne s’est pas produite. Un colonel de l’Air Force avait décrit par erreur une expérience de pensée comme réelle lors d’une conférence.
Même ainsi, les mensonges voyagent à l’autre bout du monde avant que la vérité ne lace ses bottes et l’histoire ne manquera pas de s’infiltrer dans nos inquiétudes collectives et inconscientes concernant la menace de l’IA pour la race humaine, une idée qui a pris de l’ampleur grâce aux avertissements de deux « parrains ». » de l’IA et deux lettres ouvertes sur le risque existentiel.
Des craintes profondément ancrées dans notre culture concernant les dieux et les machines en fuite sont déclenchées – mais tout le monde doit se calmer et regarder de plus près ce qui se passe vraiment ici.
Tout d’abord, reconnaissons la cohorte d’informaticiens qui croient depuis longtemps que les systèmes d’IA, comme ChatGPT, doivent être plus soigneusement alignés sur les valeurs humaines. Ils proposent que si vous concevez l’IA pour suivre des principes comme l’intégrité et la gentillesse, ils sont moins susceptibles de faire demi-tour et d’essayer de tous nous tuer à l’avenir. Je n’ai aucun problème avec ces scientifiques.
Mais au cours des derniers mois, l’idée d’une menace d’extinction est devenue tellement ancrée dans le discours public que vous pourriez en parler lors d’un dîner avec vos beaux-parents et que tout le monde approuve l’importance de la question.
A première vue, c’est ludique. C’est également une excellente nouvelle pour les grandes entreprises d’IA, pour deux raisons :
1) Cela crée le spectre d’un système d’IA tout-puissant qui finira par devenir si impénétrable que nous ne pouvons pas espérer le comprendre. Cela peut sembler effrayant, mais cela rend également ces systèmes plus attrayants dans la ruée actuelle vers l’achat et le déploiement de systèmes d’IA. La technologie pourrait peut-être un jour anéantir la race humaine, mais cela n’illustre-t-il pas à quel point elle pourrait avoir un impact puissant sur votre entreprise aujourd’hui ?
Ce genre de propagande paradoxale a fonctionné dans le passé. Le prestigieux laboratoire d’IA DeepMind, largement considéré comme le principal concurrent d’OpenAI, a commencé sa vie en tant que laboratoire de recherche avec l’objectif ambitieux de construire une AGI, ou une intelligence générale artificielle qui pourrait dépasser les capacités humaines. Ses fondateurs Demis Hassabis et Shane Legg n’avaient pas peur de la menace existentielle de cette technologie lorsqu’ils se sont adressés pour la première fois à de grands investisseurs en capital-risque comme Peter Thiel pour rechercher des financements il y a plus de dix ans. En fait, ils ont parlé ouvertement des risques et ont obtenu l’argent dont ils avaient besoin.
Mettre en lumière les capacités de destruction du monde de l’IA de manière vague nous permet de combler les vides avec notre imagination, attribuant à l’IA future des capacités et une puissance infinies. C’est un stratagème marketing magistral.
2) Cela détourne l’attention d’autres initiatives qui pourraient nuire aux activités des principales entreprises d’IA. Quelques exemples : L’Union européenne vote ce mois-ci une loi, appelée AI Act, qui obligerait OpenAI à divulguer tout matériel protégé par le droit d’auteur utilisé pour développer ChatGPT. (Sam Altman d’OpenAI a initialement déclaré que son entreprise « cesserait ses activités » dans l’UE à cause de la loi, puis a fait marche arrière.) Un groupe de défense a également récemment exhorté la Federal Trade Commission des États-Unis à lancer une enquête sur OpenAI et à pousser l’entreprise les exigences de l’agence pour que les systèmes d’IA soient « transparents, explicables [and] équitable. »
La transparence est au cœur de l’éthique de l’IA, un domaine dans lequel les grandes entreprises technologiques ont investi plus massivement entre 2015 et 2020. À l’époque, Google, Twitter et Microsoft avaient tous de solides équipes de chercheurs explorant comment des systèmes d’IA comme ceux qui alimentent ChatGPT pourraient perpétuer par inadvertance préjugés à l’encontre des femmes et des minorités ethniques, portent atteinte à la vie privée des personnes et nuisent à l’environnement.
Pourtant, plus leurs chercheurs creusaient, plus leurs modèles commerciaux semblaient faire partie du problème. Un article de 2021 des chercheurs de Google AI, Timnit Gebru et Margaret Mitchell, a déclaré que les grands modèles linguistiques construits par leur employeur pourraient avoir des préjugés dangereux pour les groupes minoritaires, un problème aggravé par leur opacité, et qu’ils étaient vulnérables aux abus. Gebru et Mitchell ont ensuite été licenciés. Microsoft et Twitter ont également démantelé leurs équipes d’éthique de l’IA.
Cela a servi d’avertissement à d’autres chercheurs en éthique de l’IA, selon Alexa Hagerty, anthropologue et affiliée à l’Université de Cambridge. « ‘Vous avez été embauché pour soulever des problèmes d’éthique' », dit-elle, caractérisant le point de vue des entreprises technologiques, « mais ne soulevez pas ceux que nous n’aimons pas ».
Le résultat est maintenant une crise de financement et d’attention pour le domaine de l’éthique de l’IA, et la confusion quant à l’endroit où les chercheurs devraient aller s’ils veulent auditer les systèmes d’IA est d’autant plus difficile que les grandes entreprises technologiques deviennent plus secrètes sur la façon dont leurs modèles d’IA sont façonné.
C’est un problème même pour ceux qui s’inquiètent du désastre. Comment les gens du futur devraient-ils contrôler l’IA si ces systèmes ne sont pas transparents et si les humains n’ont pas l’expertise nécessaire pour les examiner ?
L’idée de démêler la boîte noire de l’IA – souvent présentée comme presque impossible – n’est peut-être pas si difficile. Un article de mai 2023 dans les Actes de l’Académie nationale des sciences (PNAS), une revue à comité de lecture de l’Académie nationale des sciences, a montré que le soi-disant problème d’explicabilité de l’IA n’est pas aussi irréaliste que de nombreux experts le pensaient jusqu’à présent. .
Les technologues qui mettent en garde contre les risques catastrophiques de l’IA, comme le PDG d’OpenAI, Sam Altman, le font souvent en termes vagues. Pourtant, si de telles organisations croyaient vraiment qu’il y avait ne serait-ce qu’une infime chance que leur technologie puisse anéantir la civilisation, pourquoi la construire en premier lieu ? Cela entre certainement en conflit avec les mathématiques morales à long terme des constructeurs d’IA de la Silicon Valley, qui disent qu’un risque minime avec un coût infini devrait être une priorité majeure.
Regarder de plus près les systèmes d’IA maintenant, plutôt que de se tordre les mains à propos d’une vague apocalypse du futur, est non seulement plus sensé, mais cela place également les humains dans une position plus forte pour empêcher qu’un événement catastrophique ne se produise en premier lieu. Pourtant, les entreprises technologiques préféreraient de loin que nous nous inquiétions de cette perspective lointaine plutôt que de pousser à la transparence autour de leurs algorithmes.
En ce qui concerne notre avenir avec l’IA, nous devons résister aux distractions de la science-fiction de l’examen plus approfondi qui est nécessaire aujourd’hui.
© 2023 Bloomberg LP
[ad_2]
Source link