Facebook y EE. UU. resuelven demanda por anuncios inmobiliarios discriminatorios

NUEVA YORK –

Facebook cambiará sus algoritmos para evitar la publicidad discriminatoria de viviendas y su empresa matriz se someterá a la supervisión judicial para resolver una demanda presentada por el Departamento de Justicia de EE. UU. el martes.

En un comunicado, funcionarios del gobierno de EE. UU. dijeron que Meta Platforms Inc., antes conocida como Facebook Inc., dijo el martes que llegó a un acuerdo para resolver la demanda presentada el mismo día en la corte federal de Manhattan.

Según el comunicado, fue el primer caso del Departamento de Justicia que desafió la discriminación algorítmica en virtud de la Ley de Vivienda Justa. Facebook ahora estará sujeto a la aprobación del Departamento de Justicia y la supervisión judicial para su sistema de distribución y orientación de anuncios.

El fiscal federal Damian Williams calificó la demanda como «innovadora». La fiscal general adjunta, Kristen Clarke, lo calificó de «histórico».

Ashley Settle, portavoz de Facebook, dijo en un correo electrónico que la compañía estaba «construyendo un método de aprendizaje automático novedoso sin nuestro sistema de anuncios que cambiará la forma en que se entregan los anuncios de viviendas a las personas que residen en los EE. UU. en diferentes grupos demográficos».

Ella dijo que la compañía extendería su nuevo método para anuncios relacionados con el empleo y el crédito en los EE. UU.

«Estamos entusiasmados de ser pioneros en este esfuerzo», agregó Settle en un correo electrónico.

Williams dijo que la tecnología de Facebook en el pasado violó la Ley de Vivienda Justa en línea «al igual que cuando las empresas se involucran en publicidad discriminatoria utilizando métodos publicitarios más tradicionales».

Clarke dijo que «las empresas como Meta tienen la responsabilidad de garantizar que sus herramientas algorítmicas no se utilicen de manera discriminatoria».

Según los términos del acuerdo, Facebook dejará de usar una herramienta publicitaria para anuncios de vivienda que, según el gobierno, empleó un algoritmo discriminatorio para ubicar a los usuarios que «se parecen» a otros usuarios según las características protegidas por la Ley de Vivienda Justa, dijo el Departamento de Justicia. Para el 31 de diciembre, Facebook debe dejar de usar la herramienta que alguna vez se llamó «Público similar», que se basa en un algoritmo que, según EE. UU., discrimina en función de la raza, el sexo y otras características.

Facebook también desarrollará un nuevo sistema durante el próximo medio año para abordar las disparidades raciales y de otro tipo causadas por el uso de algoritmos de personalización en su sistema de entrega de anuncios de vivienda, dijo.

Si el nuevo sistema es inadecuado, el acuerdo de conciliación puede rescindirse, dijo el Departamento de Justicia. Según el acuerdo, Meta también debe pagar una multa de poco más de US$115.000.

El anuncio se produce después de que Facebook ya acordó en marzo de 2019 revisar sus sistemas de orientación de anuncios para evitar la discriminación en los anuncios de vivienda, crédito y empleo como parte de un acuerdo legal con un grupo que incluye a la Unión Estadounidense de Libertades Civiles, la Alianza Nacional de Vivienda Justa y otros. .

Los cambios anunciados entonces fueron diseñados para que los anunciantes que querían publicar anuncios de vivienda, empleo o crédito ya no pudieran dirigirse a personas por edad, género o código postal.

El Departamento de Justicia dijo el martes que el acuerdo de 2019 redujo las opciones de orientación potencialmente discriminatorias disponibles para los anunciantes, pero no resolvió otros problemas, incluida la entrega discriminatoria de anuncios de viviendas de Facebook a través de algoritmos de aprendizaje automático.