Over 10 years we helping companies reach their financial and branding goals. Onum is a values-driven SEO agency dedicated.

CONTACTS
Noticias

Google y otros gigantes tecnológicos no son responsables del contenido terrorista


La Corte Suprema decidió hoy que las empresas de tecnología no son responsables del contenido terrorista publicado en sus plataformas.

La demanda, iniciada por la familia de una víctima de un ataque de ISIS en 2017, argumentó que Twitter, Facebook y Google deberían rendir cuentas por permitir que la organización terrorista utilice sus plataformas en sus esfuerzos terroristas.

Sin embargo, el tribunal decidió por unanimidad que la demanda no podía continuar.

El juez Clarence Thomas, escribiendo para la corte unánime en Twitter v. Taamneh, aclaró que las plataformas de redes sociales no son culpables, incluso si los actores nefastos usan dichas plataformas para fines ilegales y, a veces, terribles.

El argumento presentado por la familia de la víctima, de que las empresas tecnológicas deberían ser consideradas responsables por la supuesta incapacidad de impedir que ISIS utilizara estas plataformas, carecía del vínculo necesario entre las empresas tecnológicas y el ataque terrorista para establecer la responsabilidad.

El juez Ketanji Brown Jackson, en una breve opinión concurrente, subrayó que la opinión del tribunal era limitada en aspectos significativos. Sugirió que otros casos con denuncias y registros diferentes podrían llevar a conclusiones diferentes.

Impacto del caso González v. Google

Tras el fallo de Twitter, la Corte Suprema abordó el caso de González v. Google, una demanda presentada por la familia de Nohemi González, una mujer estadounidense de 23 años asesinada en el ataque de ISIS de 2015 en un café parisino.

La familia González argumentó que Google, a través de su propiedad de YouTube, ayudó al reclutamiento de ISIS al permitir que el grupo terrorista publicara videos en YouTube que incitaban a la violencia y buscaban reclutar a posibles miembros de ISIS.

La familia también afirmó que los algoritmos de Google recomendaban videos de ISIS a los usuarios.

El Tribunal de Apelaciones del Noveno Circuito de EE. UU. sostuvo anteriormente que la Sección 230 de la Ley de Decencia en las Comunicaciones de 1996, que protege a las empresas tecnológicas de la responsabilidad por el contenido publicado por los usuarios, protegía tales recomendaciones.

Sin embargo, a la luz de la decisión de Twitter, la Corte Suprema anuló este fallo y devolvió el caso para su reconsideración.

El tribunal se abstuvo de decidir sobre el alcance de la Sección 230, sugiriendo que es mejor dejar este asunto al Congreso oa un caso futuro.

Ciertos miembros del Congreso están convencidos de reformar la Sección 230, creyendo que ofrece demasiada protección a los gigantes tecnológicos.

La oficina del Senador Mark Warner, un crítico vocal y defensor de las reformas a la Sección 230, proporcionó una declaración a Search Engine Journal con respecto a la decisión en el caso Gonzalez v. Google.

Él caracteriza la Sección 230 como vieja y obsoleta, argumentando que es una “Tarjeta para salir de la cárcel gratis” para las grandes empresas.

“Durante años, he estado diciendo que el Congreso debe tomar medidas para abordar la amplia protección que la Sección 230 brinda a las empresas de tecnología. Este estatuto anticuado ha dejado de ser útil y proporcionó a las compañías de plataformas más grandes una “Tarjeta para salir de la cárcel gratis”, ya que sus sitios son utilizados por estafadores, acosadores y extremistas violentos”.

El Senador Warner, sin embargo, deja en claro que no considera que la reforma de la Sección 230 abra las compuertas para reclamos masivos de responsabilidad contra compañías de plataformas.

“Reformar la Sección 230 no significa que las plataformas automáticamente estarán sujetas a reclamos masivos de responsabilidad; las víctimas aún tendrán que probar su caso en los tribunales”.

En resumen

Estos casos resaltan colectivamente el debate en curso en torno a la responsabilidad de las empresas de tecnología en la moderación del contenido generado por los usuarios y la medida en que pueden ser responsables por el contenido dañino compartido en sus plataformas.

Las decisiones de la Corte Suprema indican que, al menos por ahora, es necesaria una conexión directa entre las acciones de las empresas tecnológicas y actos específicos de terrorismo para establecer la responsabilidad legal.

No obstante, los comentarios de la corte sugieren que diferentes circunstancias podrían resultar en diferentes resultados.


Fuentes: ESCOTO

Imagen destacada generada por el autor usando Midjourney.

hola@juanrecio.com

Author

hola@juanrecio.com

"¡ALERTA! El Error Fatal que Está Saboteando tu Éxito (Y Cómo Solucionarlo) ⚠️"