Dos casos de la Corte Suprema esta semana podrían alterar todo Internet

Washington
CNN

La Corte Suprema escuchará argumentos orales consecutivos esta semana en dos casos que podrían remodelar significativamente la moderación del contenido y el discurso en línea.

El resultado de los argumentos orales, programados para el martes y el miércoles, podría determinar si las plataformas tecnológicas y las empresas de redes sociales pueden ser demandadas por recomendar contenido a sus usuarios o por apoyar actos de terrorismo internacional al albergar contenido terrorista. Marca la primera revisión de la Corte de una ley federal candente que protege en gran medida los sitios web de demandas por contenido generado por el usuario.

Los casos seguidos de cerca, conocidos como Gonzalez v. Google y Twitter v. Taamneh, tienen mucho en juego para Internet en general. Una expansión del riesgo legal de las aplicaciones y los sitios web para alojar o promocionar contenido podría generar cambios importantes en los sitios, incluidos Facebook, Wikipedia y YouTube, por nombrar algunos.

El litigio ha producido una de las retóricas más intensas en años del sector tecnológico sobre el impacto potencial en el futuro de Internet. Los legisladores estadounidenses, los grupos de la sociedad civil y más de dos docenas de estados también se han sumado al debate con presentaciones en la Corte.

En el centro de la batalla legal se encuentra la Sección 230 de la Ley de Decencia en las Comunicaciones, una ley federal de casi 30 años de antigüedad que los tribunales han dicho repetidamente que brinda amplias protecciones a las plataformas tecnológicas, pero que desde entonces ha sido objeto de escrutinio junto con las crecientes críticas al contenido de Big Tech. decisiones de moderación.

La ley tiene críticos en ambos lados del pasillo. Muchos funcionarios republicanos alegan que la Sección 230 otorga a las plataformas de redes sociales una licencia para censurar los puntos de vista conservadores. Destacados demócratas, incluido el presidente Joe Biden, han argumentado que la Sección 230 evita que los gigantes tecnológicos rindan cuentas por difundir información errónea y discursos de odio.

En los últimos años, algunos en el Congreso han presionado por cambios en la Sección 230 que podrían exponer a las plataformas tecnológicas a una mayor responsabilidad, junto con propuestas para modificar las normas antimonopolio de EE. UU. y otros proyectos de ley destinados a controlar las plataformas tecnológicas dominantes. Pero esos esfuerzos se han estancado en gran medida, dejando a la Corte Suprema como la fuente más probable de cambio en los próximos meses en la forma en que Estados Unidos regula los servicios digitales.

Los fallos en los casos se esperan para fines de junio.

El caso que involucra a Google se centra en si puede ser demandado debido a la promoción algorítmica de videos terroristas en su plataforma por parte de su subsidiaria YouTube.

Según los demandantes en el caso, la familia de Nohemi González, quien murió en un ataque de ISIS en París en 2015, las recomendaciones específicas de YouTube violaron una ley antiterrorista de EE. UU. al ayudar a radicalizar a los espectadores y promover la visión del mundo de ISIS.

La acusación busca forjar recomendaciones de contenido para que no reciban protecciones en virtud de la Sección 230, lo que podría exponer a las plataformas tecnológicas a una mayor responsabilidad por la forma en que ejecutan sus servicios.

Google y otras empresas de tecnología han dicho que esa interpretación de la Sección 230 aumentaría los riesgos legales asociados con la clasificación, clasificación y selección de contenido en línea, una característica básica de la Internet moderna. Google ha afirmado que en tal escenario, los sitios web buscarían ir a lo seguro eliminando mucho más contenido del necesario o renunciando por completo a la moderación del contenido y permitiendo material aún más dañino en sus plataformas.

Las presentaciones de amigos de la corte de Craigslist, Microsoft, Yelp y otros han sugerido que lo que está en juego no se limita a los algoritmos y también podría terminar afectando prácticamente cualquier cosa en la web que pueda interpretarse como una recomendación. Eso podría significar que incluso los usuarios promedio de Internet que se ofrecen como moderadores en varios sitios podrían enfrentar riesgos legales, según una presentación de Reddit y varios moderadores voluntarios de Reddit. El senador demócrata de Oregón, Ron Wyden, y el exrepresentante republicano de California, Chris Cox, los coautores originales de la Sección 230, argumentaron ante el Tribunal que la intención del Congreso al aprobar la ley era dar a los sitios web una amplia discreción para moderar el contenido como mejor les pareciera.

La administración de Biden también ha intervenido en el caso. En un escrito presentado en diciembre, argumentó que la Sección 230 protege a Google y YouTube de demandas “por no eliminar contenido de terceros, incluido el contenido que ha recomendado”. Pero, argumentó el informe del gobierno, esas protecciones no se extienden a los algoritmos de Google porque representan el discurso de la propia empresa, no el de los demás.

El segundo caso, Twitter v. Taamneh, decidirá si las empresas de redes sociales pueden ser demandadas por ayudar e incitar a un acto específico de terrorismo internacional cuando las plataformas han alojado contenido de usuario que expresa apoyo general al grupo detrás de la violencia sin hacer referencia al específico. acto terrorista en cuestión.

Los demandantes en el caso, la familia de Nawras Alassaf, quien murió en un ataque de ISIS en Estambul en 2017, alegaron que las empresas de redes sociales, incluido Twitter, habían ayudado a ISIS a sabiendas en violación de una ley antiterrorista de EE. UU. al permitir parte del contenido del grupo. persistir en sus plataformas a pesar de las políticas destinadas a limitar ese tipo de contenido.

Twitter ha dicho que el hecho de que ISIS haya utilizado la plataforma de la empresa para promocionarse no constituye una asistencia “consciente” de Twitter al grupo terrorista y que, en cualquier caso, la empresa no puede ser considerada responsable en virtud de la ley antiterrorista porque el contenido en cuestión en el caso no fue específico del ataque que mató a Alassaf. La administración Biden, en su informe, ha estado de acuerdo con esa opinión.

Twitter también había argumentado previamente que era inmune a la demanda gracias a la Sección 230.

Otras plataformas tecnológicas como Meta y Google han argumentado en el caso que si el Tribunal determina que las empresas tecnológicas no pueden ser demandadas en virtud de la ley antiterrorista de EE. UU., al menos en estas circunstancias, evitaría un debate sobre la Sección 230 en ambos casos, porque el las reclamaciones en cuestión serían desechadas.

En los últimos años, sin embargo, varios jueces de la Corte Suprema han mostrado un interés activo en la Sección 230 y parecen invitar oportunidades para escuchar casos relacionados con la ley. El año pasado, los jueces de la Corte Suprema Samuel Alito, Clarence Thomas y Neil Gorsuch escribieron que las nuevas leyes estatales, como la de Texas, que obligarían a las plataformas de redes sociales a albergar contenido que preferirían eliminar, plantean cuestiones de “gran importancia” sobre “el poder de los medios dominantes”. corporaciones de redes sociales para dar forma a la discusión pública de los temas importantes del día”.

Actualmente hay varias peticiones pendientes para que el Tribunal revise la ley de Texas y una ley similar aprobada por Florida. El mes pasado, la Corte retrasó una decisión sobre si escuchar esos casos y, en cambio, pidió que la administración de Biden presentara sus puntos de vista.