[ad_1]
Le patron d’OpenAI, l’entreprise à l’origine du très populaire bot ChatGPT, a déclaré vendredi que la technologie de son entreprise ne détruirait pas le marché du travail alors qu’il cherchait à apaiser les craintes concernant le marché de l’intelligence artificielle (IA).
Sam Altman, en tournée mondiale pour charmer les dirigeants nationaux et les puissants, a déclaré à Paris que l’IA n’éliminerait pas – comme certains l’ont averti – des secteurs entiers de la main-d’œuvre grâce à l’automatisation.
« Cette idée que l’IA va progresser à un point où les humains n’ont plus de travail à faire ou n’ont aucun but ne m’a jamais touché », a-t-il déclaré.
Interrogé sur l’industrie des médias, où plusieurs médias utilisent déjà l’IA pour générer des histoires, Altman a déclaré que ChatGPT devrait plutôt être comme donner à un journaliste 100 assistants pour l’aider à faire des recherches et à trouver des idées.
ChatGPT a fait irruption sous les projecteurs à la fin de l’année dernière, démontrant sa capacité à générer des essais, des poèmes et des conversations à partir des invites les plus brèves.
Microsoft a ensuite dépensé des milliards de dollars pour soutenir OpenAI et utilise désormais la technologie de l’entreprise dans plusieurs de ses produits, déclenchant une course avec Google, qui a fait une multitude d’annonces similaires.
Altman, une star émergente de la Silicon Valley âgée de 38 ans, a été chaleureusement accueillie par des dirigeants du monde entier, de Lagos à Londres.
Bien qu’au début de la semaine, il ait semblé agacer l’Union européenne en laissant entendre que son entreprise pourrait quitter le bloc si elle réglementait trop sévèrement.
Il a insisté auprès d’un groupe de journalistes en marge de l’événement parisien sur le fait que les gros titres n’étaient pas justes et qu’il n’avait pas l’intention de quitter le bloc – au contraire, OpenAI était susceptible d’ouvrir un bureau en Europe à l’avenir.
Épuisant
Le succès de ChatGPT – qui a été utilisé par les politiciens pour rédiger des discours et s’est avéré capable de passer des examens difficiles – a propulsé Altman sous les projecteurs mondiaux.
« Dans des années, réfléchir à cela sera très spécial… mais c’est aussi assez épuisant et j’espère que la vie se calmera », a-t-il déclaré.
OpenAI a été créée en 2015 avec des investisseurs, dont Altman et le propriétaire milliardaire de Twitter Elon Musk, qui a quitté l’entreprise en 2018 et l’a critiquée à plusieurs reprises ces derniers mois.
Musk, qui a ses propres ambitions en matière d’IA, a déclaré qu’il avait inventé le nom OpenAI, y avait investi 100 millions de dollars, avait été trahi lorsque l’entreprise est passée d’une organisation à but non lucratif à une entreprise à but lucratif en 2018, et a déclaré que Microsoft dirigeait désormais efficacement le entreprise.
« Je ne suis pas d’accord avec presque tout cela, mais je vais essayer d’éviter une bataille de nourriture ici », a déclaré Altman. « Il doit y avoir des choses plus importantes que tout ce dont il parle. »
Au lieu de cela, il voulait se concentrer sur la mission d’OpenAI, qui, selon lui, était de « maximiser les avantages » pour la société de l’IA et en particulier de l’intelligence générale artificielle (AGI) – l’avenir tant vanté où les machines maîtriseront toutes sortes de tâches, pas juste un.
Il a admis que les définitions de l’AGI étaient « floues » et qu’il n’y avait pas d’accord, mais a déclaré que sa définition était le moment où les machines pouvaient faire des percées scientifiques majeures.
« Pour moi, si vous pouvez comprendre la théorie fondamentale de la physique et répondre à tout, je vous appellerai AGI », a-t-il déclaré.
Une critique majeure de ses produits est que la firme ne publie pas les sources qu’elle utilise pour entraîner ses modèles.
Outre les problèmes de droits d’auteur, les critiques soutiennent que les utilisateurs doivent savoir qui est responsable de répondre à leurs questions et si ces réponses utilisent du matériel provenant de pages Web offensantes ou racistes.
Mais Altman a fait valoir que l’essentiel était que les critiques voulaient savoir si les modèles eux-mêmes étaient racistes.
« Ce qui compte ici, c’est ce qui compte dans un test de préjugés raciaux », a-t-il déclaré, détournant l’idée qu’il devrait publier les sources.
Il a déclaré que le dernier modèle, GPT-4, était « étonnamment non biaisé ».
[ad_2]
Source link