[ad_1]
Les dirigeants mondiaux devraient s’efforcer de réduire « le risque d’extinction » de la technologie de l’intelligence artificielle, a averti mardi un groupe de chefs d’entreprise et d’experts.
Une déclaration d’une ligne signée par des dizaines de spécialistes, dont Sam Altman dont la société OpenAI a créé le bot ChatGPT, a déclaré que la lutte contre les risques liés à l’IA devrait être « une priorité mondiale aux côtés d’autres risques à l’échelle de la société tels que les pandémies et la guerre nucléaire ».
ChatGPT a fait irruption sous les projecteurs à la fin de l’année dernière, démontrant sa capacité à générer des essais, des poèmes et des conversations à partir des invites les plus brèves.
Le succès fou du programme a déclenché une ruée vers l’or avec des milliards de dollars d’investissement dans le domaine, mais les critiques et les initiés ont sonné l’alarme.
Les inquiétudes courantes incluent la possibilité que les chatbots inondent le Web de désinformation, que des algorithmes biaisés produisent du matériel raciste ou que l’automatisation alimentée par l’IA puisse dévaster des industries entières.
Des machines super intelligentes
La dernière déclaration, hébergée sur le site Web du Center for AI Safety, une organisation à but non lucratif basée aux États-Unis, ne donne aucun détail sur la menace existentielle potentielle posée par l’IA.
Le centre a déclaré que la « déclaration succincte » visait à ouvrir une discussion sur les dangers de la technologie.
Plusieurs des signataires, dont Geoffrey Hinton, qui a créé certaines des technologies sous-jacentes aux systèmes d’IA et est connu comme l’un des parrains de l’industrie, ont fait des avertissements similaires dans le passé.
Leur plus grande inquiétude a été la montée de ce qu’on appelle l’intelligence artificielle générale (AGI) – un concept vaguement défini pour un moment où les machines deviennent capables d’exécuter des fonctions étendues et peuvent développer leur propre programmation.
La crainte est que les humains n’aient plus le contrôle des machines superintelligentes, qui, selon les experts, pourraient avoir des conséquences désastreuses pour l’espèce et la planète.
Des dizaines d’universitaires et de spécialistes d’entreprises telles que Google et Microsoft – tous deux leaders dans le domaine de l’IA – ont signé la déclaration.
Cela survient deux mois après que le patron de Tesla, Elon Musk, et des centaines d’autres ont publié une lettre ouverte appelant à une pause dans le développement d’une telle technologie jusqu’à ce qu’il puisse être démontré qu’elle est sûre.
Cependant, la lettre de Musk a suscité de nombreuses critiques selon lesquelles les terribles avertissements d’effondrement de la société étaient extrêmement exagérés et reflétaient souvent les points de discussion des boosters d’IA.
L’universitaire américaine Emily Bender, qui a co-écrit un article influent critiquant l’IA, a déclaré que la lettre de mars, signée par des centaines de personnalités notables, était « dégoulinante de battage médiatique sur l’IA ».
« Étonnamment impartial »
Bender et d’autres critiques ont critiqué les entreprises d’IA pour avoir refusé de publier les sources de leurs données ou de révéler comment elles sont traitées – le soi-disant problème de la « boîte noire ».
Parmi les critiques, il y a le fait que les algorithmes pourraient être formés sur du matériel raciste, sexiste ou politiquement biaisé.
Altman, qui parcourt actuellement le monde dans le but d’aider à façonner la conversation mondiale autour de l’IA, a fait allusion à plusieurs reprises à la menace mondiale posée par la technologie que son entreprise développe.
« Si quelque chose ne va pas avec l’IA, aucun masque à gaz ne vous aidera », a-t-il déclaré vendredi dernier à un petit groupe de journalistes à Paris.
Mais il a défendu le refus de son entreprise de publier les données sources, affirmant que les critiques voulaient simplement savoir si les modèles étaient biaisés.
« Ce qui compte ici, c’est ce qui compte dans un test de préjugés raciaux », a-t-il déclaré, ajoutant que le dernier modèle était « étonnamment non biaisé ».
[ad_2]
Source link