Google afirma que una derrota en la Corte Suprema transformaría Internet, para peor
CNN
—
Un fallo desfavorable contra Google en un caso de la Corte Suprema seguido de cerca este término sobre el motor de recomendación de YouTube podría tener consecuencias no deseadas para gran parte de Internet, argumentó el gigante de las búsquedas en una presentación legal el jueves.
Google, propietaria de YouTube, está librando una batalla judicial de alto riesgo sobre si las recomendaciones de YouTube generadas algorítmicamente están exentas del escudo de responsabilidad de firma de Big Tech, la Sección 230 de la Ley de Decencia en las Comunicaciones.
La Sección 230 protege ampliamente las plataformas tecnológicas de las demandas por las decisiones de moderación de contenido de las empresas. Pero una decisión de la Corte Suprema que dice que las recomendaciones basadas en IA no califican para esas protecciones podría “amenazar las funciones centrales de Internet”, escribió Google en su informe.
“Los sitios web como Google y Etsy dependen de algoritmos para filtrar montañas de contenido creado por el usuario y mostrar contenido probablemente relevante para cada usuario”, escribió la compañía. “Si los demandantes pudieran evadir [Section 230] al enfocarse en cómo los sitios web clasifican el contenido o intentan responsabilizar a los usuarios por dar me gusta o compartir artículos, Internet se convertiría en un desastre desorganizado y un campo minado de litigios”.
Ante tal decisión, los sitios web podrían tener que elegir entre moderar en exceso intencionalmente sus sitios web, eliminar prácticamente todo lo que podría percibirse como objetable o no moderar en absoluto para evitar el riesgo de responsabilidad, argumentó Google.
Lo que impulsa el caso son las afirmaciones de que Google violó una ley antiterrorista de EE. UU. con sus algoritmos de contenido al recomendar videos de YouTube pro-ISIS a los usuarios. Los demandantes en el caso son la familia de Nohemí González, quien murió en un ataque de ISIS en 2015 en París.
En la presentación, Google dijo que “YouTube aborrece el terrorismo” y citó sus “acciones cada vez más efectivas” para limitar la difusión de contenido terrorista en su plataforma, antes de insistir en que la empresa no puede ser demandada por recomendar los videos debido a su protección de responsabilidad de la Sección 230.
El caso, Gonzalez v. Google, es visto como un referente para la moderación de contenido y uno de los primeros casos de la Corte Suprema en considerar la Sección 230 desde su aprobación en 1996. Varios jueces de la Corte Suprema han expresado interés en opinar sobre la ley, que ha sido ampliamente interpretado por los tribunales, defendido por la industria tecnológica y duramente criticado por los políticos de ambos partidos.
La administración Biden, en un informe legal el mes pasado, argumentó que las protecciones de la Sección 230 no deberían extenderse a los algoritmos de recomendación. El presidente Joe Biden ha pedido durante mucho tiempo cambios en la Sección 230, diciendo que las plataformas tecnológicas deberían asumir una mayor responsabilidad por el contenido que aparece en sus sitios web. Recientemente, el martes, Biden publicó un artículo de opinión en el Wall Street Journal que instaba al Congreso a enmendar la Sección 230.
Pero en una publicación de blog el jueves, la consejera general de Google, Halimah DeLaine Prado, argumentó que reducir la Sección 230 aumentaría la amenaza de litigios contra las pequeñas empresas y en línea, lo que congelaría el discurso y la actividad económica en Internet.
“Los servicios podrían volverse menos útiles y menos confiables, ya que se sofocan los esfuerzos para erradicar las estafas, el fraude, las conspiraciones, el malware, la violencia, el acoso y más”, escribió DeLaine Prado.