[ad_1]
Un comité de législateurs de l’Union européenne est parvenu jeudi à un accord préliminaire sur une loi européenne sur l’intelligence artificielle, qui ouvrirait la voie à la toute première réglementation de l’IA.
« Contre les souhaits conservateurs d’une surveillance accrue et les fantasmes gauchistes de surréglementation, le Parlement a trouvé un compromis solide qui réglementerait l’IA de manière proportionnée, protégerait les droits des citoyens, favoriserait l’innovation et stimulerait l’économie », a déclaré Svenja Hahn, députée au Parlement européen. .
La Commission européenne a proposé le projet de règles il y a près de deux ans dans le but de protéger les citoyens des dangers de la technologie émergente, qui a connu un boom des investissements et de la popularité des consommateurs ces derniers mois.
Le projet doit être débattu entre les pays de l’UE et les législateurs de l’UE, appelé un trilogue, avant que les règles puissent devenir loi.
Selon les propositions, les entreprises qui fabriquent des outils d’IA génératifs tels que ChatGPT devraient divulguer si elles ont utilisé du matériel protégé par le droit d’auteur dans leurs systèmes.
Les législateurs ont cherché à trouver un équilibre entre l’encouragement de l’innovation et la protection des droits fondamentaux des citoyens.
Cela a conduit à classer différents outils d’IA en fonction de leur niveau de risque perçu : de minime à limité, élevé et inacceptable. Les outils à haut risque ne seront pas interdits, mais obligeront les entreprises à être très transparentes dans leurs opérations.
Aux États-Unis, le président de la commission sénatoriale du renseignement a exhorté mercredi les PDG de plusieurs sociétés d’intelligence artificielle (IA) à donner la priorité aux mesures de sécurité, à lutter contre les préjugés et à déployer de manière responsable les nouvelles technologies.
Le sénateur démocrate Mark Warner a fait part de ses inquiétudes concernant les risques potentiels posés par la technologie de l’IA. « Au-delà des engagements de l’industrie, cependant, il est également clair qu’un certain niveau de réglementation est nécessaire dans ce domaine », a déclaré Warner, qui a envoyé des lettres aux PDG d’OpenAI, Scale AI, Meta Platforms, Alphabet’s Google, Apple, Stability AI, Midjourney. , Anthropic, Percipient.ai et Microsoft.
© Thomson Reuters 2023
[ad_2]
Source link