L’ancienne employée de Facebook et lanceuse d’alerte, Frances Haugen, exhortera mardi le Congrès américain à réglementer le géant des médias sociaux, qu’elle envisage de comparer aux fabricants de tabac qui ont nié pendant des décennies que le tabagisme nuisait à la santé, selon un témoignage préparé vu par Reuters.
« Lorsque nous avons réalisé que les compagnies de tabac cachaient les dommages qu’elles causaient, le gouvernement a pris des mesures. Lorsque nous avons compris que les voitures étaient plus sûres avec des ceintures de sécurité, le gouvernement a pris des mesures », a déclaré le témoignage écrit de Haugen devant être remis à un sous-comité sénatorial du commerce. « Je vous implore de faire de même ici. »
Haugen dira au panel que les dirigeants de Facebook ont régulièrement choisi les bénéfices plutôt que la sécurité des utilisateurs.
« Les dirigeants de l’entreprise savent comment rendre Facebook et Instagram plus sûrs et n’apporteront pas les changements nécessaires car ils ont fait passer leurs immenses profits avant les gens. Une action du Congrès est nécessaire », dira-t-elle. « Tant que Facebook fonctionnera dans le noir, il n’aura de comptes à rendre à personne. Et il continuera à faire des choix qui vont à l’encontre du bien commun. »
La sénatrice Amy Klobuchar, qui fait partie du sous-comité, a déclaré qu’elle interrogerait Haugen sur l’attaque du 6 janvier contre le Capitole des États-Unis par des partisans du président de l’époque, Donald Trump.
« Je suis également particulièrement intéressé de savoir si elle pense que Facebook a fait assez pour avertir les forces de l’ordre et le public du 6 janvier et si Facebook a supprimé les garanties de désinformation électorale parce que cela coûtait financièrement à l’entreprise », a déclaré Klobuchar dans un commentaire envoyé par courrier électronique.
La sénatrice a également déclaré qu’elle souhaitait discuter des algorithmes de Facebook et s’ils « promeuvent des contenus nuisibles et diviseurs ».
Haugen, qui travaillait en tant que chef de produit dans l’équipe de désinformation civique de Facebook, était le dénonciateur qui a fourni des documents utilisés dans une enquête du Wall Street Journal et une audience du Sénat sur les dommages causés par Instagram aux adolescentes.
Facebook possède Instagram ainsi que WhatsApp.
La société n’a pas répondu à une demande de commentaire.
Haugen a ajouté que « la conception fermée de Facebook signifie qu’il n’a aucune surveillance, même de la part de son propre conseil de surveillance, qui est aussi aveugle que le public ».
Cela rend impossible pour les régulateurs de servir de contrôle, a-t-elle ajouté.
« Cette incapacité à voir dans les systèmes réels de Facebook et à confirmer que les systèmes de Facebook fonctionnent comme ils le disent, c’est comme le ministère des Transports réglementant les voitures en les regardant rouler sur l’autoroute », dit son témoignage. « Imaginez si aucun régulateur ne pouvait monter dans une voiture, gonfler ses roues, tester une voiture en collision ou même savoir que les ceintures de sécurité pourraient exister. »
Les articles du Journal, basés sur des présentations internes et des e-mails de Facebook, ont montré que l’entreprise a contribué à une polarisation accrue en ligne lorsqu’elle a apporté des modifications à son algorithme de contenu ; n’a pas pris de mesures pour réduire l’hésitation à la vaccination ; et savait qu’Instagram nuisait à la santé mentale des adolescentes.
Haugen a déclaré que Facebook avait fait trop peu pour empêcher que sa plate-forme soit utilisée par des personnes planifiant la violence.
« Le résultat a été un système qui amplifie la division, l’extrémisme et la polarisation – et sape les sociétés du monde entier. Dans certains cas, ce dangereux discours en ligne a conduit à une violence réelle qui nuit et même tue des gens », a-t-elle déclaré.
Facebook a été utilisé par des personnes qui planifiaient des massacres au Myanmar et lors de l’assaut du 6 janvier par des partisans de Trump qui étaient déterminés à rejeter les résultats des élections de 2020.
© Thomson Reuters 2021
Discussion about this post