La Corte Suprema de EE. UU. fallará sobre la responsabilidad de las redes sociales por el contenido de sus usuarios

La Corte Suprema de los EE. UU. lanzó hoy un curso judicial con casos importantes que han impactado la discriminación positiva en muchos temas, incluido el acceso a la universidad, el medio ambiente, las reglas electorales y la discriminación contra gays y lesbianas. La Corte Suprema ha anunciado nuevos casos al reanudar las audiencias orales en persona por primera vez desde que comenzó la pandemia. De ellos, dos destacan y medirán la responsabilidad que asumen las grandes tecnológicas por el contenido que sus usuarios publican en las redes sociales.

Como resultado, Google, Facebook, Twitter, Amazon y otras empresas propietarias de la red social están pasando por una enorme prueba judicial de moderación de su contenido, un tema que ha generado controversia y está sujeto a diferentes regulaciones en los Estados Unidos. Uno de los casos contra Google por parte de González, Reynaldo y otros examinará hasta qué punto se puede responsabilizar a Google por la masacre de Mattaclan en París por permitir videos que incitan a la violencia islámica en su plataforma de YouTube. Otro impacto en Twitter, Google y Facebook estuvo relacionado con un ataque de 2017 en un club nocturno en Estambul que mató a 39 personas.

Quienes demandaron a Google por YouTube son familiares de Nohemi González, una estudiante universitaria estadounidense de 23 años que estuvo entre los 131 asesinados por terroristas del Estado Islámico en una serie de ataques que sacudieron París en Bataclan el 13 de noviembre de 2015. Uno de los capitales franceses. sala de conciertos y otros lugares. González fue asesinada ese día en un restaurante donde cenaba. El tribunal inferior rechazó la demanda, pero la familia apeló ante la Corte Suprema, que ahora aceptó hacerse cargo del caso.

La ley de EE. UU. dice que las empresas de Internet no son responsables del contenido publicado por sus usuarios, pero el tema se ha vuelto controvertido por una variedad de razones. Varios de los autores de múltiples asesinatos transmiten en vivo sus acciones. Por otro lado, el contenido en línea se ha convertido en objeto de propaganda política. Mientras que los demócratas han condenado la propaganda conspirativa y de extrema derecha que se difunde en línea, los republicanos se han quejado de las políticas de moderación de contenido implementadas por algunas grandes empresas tecnológicas, argumentando que consideran la censura.

La familia de Nohemi González criticó que YouTube no se limita a dejar que los usuarios busquen de forma pasiva qué ver, sino que sus algoritmos recomiendan videos basados ​​en el historial de cada usuario. Como resultado, quienes ven videos de propaganda islámica reciben más de este contenido, lo que contribuye a su radicalización. Se quejaron de que la empresa matriz, ahora Google Group de Alphabet, permite la difusión de videos de propaganda radical que incitan a la violencia.

«Si el artículo 230 [la norma que en principio descarga de responsabilidad a las compañías por los contenidos de sus usuarios] La aplicación de las recomendaciones generadas por estos algoritmos tiene enormes implicaciones prácticas «, argumenta la familia en el recurso. «Los servicios informáticos interactivos brindan constantemente estas recomendaciones, de una forma u otra, a casi todos los adultos y usuarios de redes sociales en los Estados Unidos. . Las familias de las víctimas creen que Google violó las leyes antiterroristas al permitir la distribución de los videos.

Google respondió que el único vínculo entre los atacantes de París y YouTube era que uno de los atacantes era un usuario activo de la plataforma y había aparecido en un video de propaganda de ISIS. “Este Tribunal no debe interpretar a la ligera la Sección 230, que amenaza las decisiones organizativas fundamentales de la Internet moderna”, argumentó Google.

En otro caso, un tribunal inferior dictaminó que Twitter, Facebook y Google eran en parte responsables de la difusión de contenido relacionado con la masacre en el Reina Club en el club nocturno de Estambul en la víspera de Año Nuevo en 2016. Los cargos contra Taamneh también fueron admitidos por la Corte Suprema. El segundo caso no tiene nada que ver con el contenido recomendado algorítmicamente, sino que generalmente pregunta si las redes sociales pueden ser procesadas por presuntamente participar en actos terroristas, lo que está detrás de la violencia cuando los usuarios alojados en la plataforma suelen expresar su apoyo al contenido del grupo, incluso si No se mencionó ningún ataque específico.

Ambos escenarios serán el primer pulso en una batalla que pone a prueba las inmunidades que las empresas deben o no deben tener sobre el contenido del usuario, así como el margen de maniobra que tienen en torno a las políticas de moderación. Varios jueces de la Corte Suprema, incluidos los conservadores Clarence Thomas y Samuel Alito, ya han expresado su interés en tomar casos contra la moderación de contenido en Internet. Cuando el tribunal se negó a admitir la demanda contra Facebook en marzo pasado, Thomas señaló en una opinión disidente: «Suponiendo que el Congreso no intervenga para aclarar el alcance de la Sección 230, debemos intervenir cuando corresponda».

El tribunal emite decisiones sobre los casos que acepta a fines de junio y principios de julio de cada año, cuando finaliza el curso judicial.

Puedes seguir a PeriodistasdeGénero TECNOLOGÍA en Facebook y Twitter o darte de alta aquí para recibir nuestra newsletter semanal.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí