x

Pico y Placa Medellín

viernes

0 y 6 

0 y 6

Pico y Placa Medellín

jueves

1 y 7 

1 y 7

Pico y Placa Medellín

miercoles

5 y 9 

5 y 9

Pico y Placa Medellín

martes

2 y 8  

2 y 8

Pico y Placa Medellín

domingo

no

no

Pico y Placa Medellín

sabado

no

no

Pico y Placa Medellín

lunes

3 y 4  

3 y 4

language COL arrow_drop_down

¿Se extralimitó Meta con la censura de información del conflicto entre Israel y Hamás?

El consejo consultivo consideró dos casos en los que la red social eliminó contenido noticioso.

  • Las políticas de difusión de la información de las redes sociales siguen siendo uno de los puntos más candentes del debate social actual. Foto: Getty.
    Las políticas de difusión de la información de las redes sociales siguen siendo uno de los puntos más candentes del debate social actual. Foto: Getty.
20 de diciembre de 2023
bookmark

El Consejo de supervisión de Meta criticó el martes a las plataformas del gigante de las redes sociales por adoptar una política de moderación excesivamente restrictiva en el contexto del conflicto entre Israel y el grupo islamista palestino Hamás.

En respuesta al “aumento excepcional de contenidos violentos y gráficos en sus plataformas” tras los ataques del 7 de octubre, Meta “redujo temporalmente los umbrales de los sistemas de clasificación automática” que identifican y eliminan contenidos violentos y discursos de odio, explicó el martes el Consejo de supervisión de Meta en su página web.

Le puede interesar: Belén, el lugar donde nació Jesús, renuncia a celebrar la Navidad este año, ¿por qué?

Estas medidas se aplicaron a los contenidos procedentes de Israel y Gaza en todos los idiomas. “Meta estaba utilizando sus herramientas automáticas de forma más agresiva para eliminar contenidos susceptibles de violar sus políticas”, continuó el Consejo. Si bien reconoce el beneficio de esta moderación, el Consejo cree que esta política aumentó el riesgo de que Meta elimine por error contenido relacionado con el conflicto que no violaba sus normas.

Actualmente, cuando se denuncian mensajes o imágenes que potencialmente infringen las regulaciones de Facebook o Instagram, se eliminan rápidamente si se consideran de alto riesgo y si provienen de usuarios desconocidos. El Consejo de supervisión se basó en dos casos en particular. Uno de ellos se refiere a un video publicado en Facebook que muestra a una mujer israelí rogando a sus captores que no la maten mientras la toman como rehén durante el ataque de Hamás del 7 de octubre.

El otro es un video publicado en Instagram, que muestra lo que parecen ser las consecuencias de un ataque cerca del hospital Al Shifa, en Gaza, durante la ofensiva terrestre israelí. Este video muestra a palestinos muertos o heridos, incluidos niños. “En ambos casos, el Consejo revocó la decisión inicial de Meta de eliminar el contenido de sus plataformas, pero aprobó la decisión posterior de la compañía de restaurar las publicaciones con una pantalla de advertencia”, explicó.

Le puede interesar: “Tiene la cabeza intacta”: con 87 años, el papa Francisco pidió por los hermanos de Belén y sigue al frente de las críticas

“Dadas las circunstancias rápidamente cambiantes y los altos riesgos que representa la eliminación de este tipo de contenidos para la libertad de expresión y el acceso a la información, Meta debería haber actuado con mayor rapidez para adaptar su política”, argumentó también. Este organismo, creado en 2020 por sugerencia del director de Meta, Mark Zuckerberg, está formado por 20 miembros internacionales, periodistas, abogados, defensores de derechos humanos y exlíderes políticos.

El empleo que buscas
está a un clic

Nuestros portales

Club intelecto

Club intelecto

Las más leídas

Te recomendamos

Utilidad para la vida

Regístrate al newsletter

PROCESANDO TU SOLICITUD