Facebook accepte enfin d'éliminer l'outil qui permettait la publicité discriminatoire

Facebook accepte enfin d’éliminer l’outil qui permettait la publicité discriminatoire

Dans un règlement annoncé mardi par le ministère de la Justice, Meta Platforms – anciennement connu sous le nom de Facebook – a accepté d’éliminer les fonctionnalités de son activité publicitaire qui permettent aux propriétaires, aux employeurs et aux agences de crédit de discriminer les groupes de personnes protégées par les lois fédérales sur les droits civils.

L’accord intervient près de six ans après que ProPublica a révélé pour la première fois que Facebook laissait les spécialistes du marketing immobilier empêcher les Afro-Américains et d’autres de voir certaines de leurs publicités. La loi fédérale interdit la discrimination en matière de logement, d’emploi et de crédit fondée sur la race, la religion, le sexe, la situation de famille et le handicap.

Pendant des annéesProPublica et d’autres chercheurs ont montré que des problèmes persistaient dans la diffusion des publicités liées au logement, à l’emploi et au crédit, même si Facebook s’est engagé à corriger les failles que nous avons identifiées.

Le règlement de cette semaine était le résultat d’un procès intenté il y a trois ans par l’administration Trump alléguant que le système de ciblage publicitaire de Meta violait le Fair Housing Act. Le DOJ a également fait valoir que Facebook utilisait un algorithme d’apprentissage automatique pour restreindre et créer des audiences publicitaires, ce qui avait pour effet de biaiser la diffusion vers ou contre des groupes légalement protégés. C’était la première fois que le gouvernement fédéral contestait les biais algorithmiques en vertu de la loi sur le logement équitable.

Dans le cadre du règlement, Meta a accepté de déployer de nouvelles méthodes publicitaires qui seront examinées par un examinateur tiers et supervisées par le tribunal.

La société a déclaré dans un communiqué qu’elle mettra en œuvre une “nouvelle utilisation de la technologie d’apprentissage automatique qui fonctionnera pour garantir que l’âge, le sexe et la race ou l’origine ethnique estimée de l’audience globale d’une annonce immobilière correspondent à l’âge, au sexe et à la race ou à l’origine ethnique. de la population éligible pour voir cette publicité.

La déclaration de Roy L. Austin Jr., vice-président des droits civils et avocat général adjoint de Meta, a noté que bien que le règlement exige uniquement que Facebook utilise son nouvel outil pour les publicités liées au logement, il s’appliquera également aux publications sur l’emploi et le crédit. (Facebook a refusé une demande de commentaire supplémentaire.)

L’avocat des droits civiques Peter Romer-Friedman, qui a intenté plusieurs poursuites contre l’entreprise, a déclaré que les négociations précédentes avaient tenté en vain de tenir Facebook responsable des biais algorithmiques. “En fin de compte, ce que cela montre, c’est qu’il n’a jamais été question de faisabilité pour éliminer les biais algorithmiques”, a-t-il déclaré à ProPublica. “C’est une question de volonté.”

Après avoir signalé le potentiel de discrimination publicitaire en 2016, Facebook a rapidement promis de mettre en place un système pour détecter et examiner les publicités discriminatoires illégalement. Un an plus tard, ProPublica a constaté qu’il était toujours possible d’exclure des groupes tels que les Afro-Américains, les mères de lycéens, les personnes intéressées par les rampes pour fauteuils roulants et les musulmans de voir des publicités. Il était également possible de cibler les publicités sur les personnes intéressées par l’antisémitisme, y compris des options telles que “Comment brûler des Juifs” et “Hitler n’a rien fait de mal”.

Nous avons découvert plus tard que les entreprises publiaient des annonces d’emploi que les femmes et les travailleurs âgés ne pouvaient pas voir. En mars 2019, Facebook a réglé un procès intenté par des groupes de défense des droits civiques en créant un “portail d’annonces spéciales” spécifiquement pour les annonces d’emploi, de logement et de crédit. La société a déclaré que le portail limiterait les options de ciblage des annonceurs et empêcherait également son algorithme de prendre en compte le sexe et la race pour décider qui devrait voir les publicités.

Mais lorsque ProPublica a travaillé avec des chercheurs de la Northeastern University et d’Upturn pour tester le nouveau système de Facebook, nous avons trouvé d’autres exemples de diffusion publicitaire biaisée. Bien que l’algorithme modifié de Facebook ait empêché les annonceurs d’exercer une discrimination explicite, la diffusion pouvait toujours s’appuyer sur des caractéristiques de proxy d’« annonce spéciale » ou de « sosie » corrélées à la race ou au sexe.

La recherche a également révélé que Facebook faussait l’audience en fonction du contenu de l’annonce elle-même. Le nombre de femmes susceptibles de voir une offre d’emploi pour un poste de conciergerie ouverte, par exemple, dépendait non seulement de ce que l’annonceur avait dit à Facebook, mais aussi de la façon dont Facebook interprétait l’image et le texte de la publicité.

ProPublica a également continué à trouver des offres d’emploi qui favorisaient les hommes ou excluaient les candidats potentiels plus âgés, violant potentiellement la loi sur les droits civils. Certains annonceurs que nous avons interrogés ont été surpris d’apprendre qu’ils n’étaient pas en mesure d’atteindre un public diversifié, même s’ils essayaient.

Dans un communiqué de presse, le DOJ a déclaré que le règlement de mardi obligeait Meta à cesser d’utiliser l’outil “Special Ad Audience” d’ici la fin de l’année. Cela oblige également Meta à modifier son algorithme “pour remédier aux disparités de race, d’ethnie et de sexe entre les publics ciblés par les annonceurs et le groupe d’utilisateurs de Facebook à qui les algorithmes de personnalisation de Facebook diffusent réellement les publicités”. L’entreprise doit partager les détails avec le DOJ et un examinateur indépendant avant de mettre en œuvre les modifications.

Dans le cadre du règlement, Meta a également accepté de payer des frais de 115 054 $, le maximum autorisé par la loi.

“En raison de ce procès révolutionnaire, Meta va – pour la première fois – changer son système de diffusion d’annonces pour lutter contre la discrimination algorithmique”, a déclaré l’avocat américain Damian Williams du district sud de New York dans un communiqué. “Mais si Meta ne parvient pas à démontrer qu’il a suffisamment modifié son système de livraison pour se prémunir contre les biais algorithmiques, ce bureau poursuivra le litige.”


#Facebook #accepte #enfin #déliminer #loutil #qui #permettait #publicité #discriminatoire

Leave a Comment

Your email address will not be published.