x

Pico y Placa Medellín

viernes

0 y 6 

0 y 6

Pico y Placa Medellín

jueves

1 y 7 

1 y 7

Pico y Placa Medellín

miercoles

5 y 9 

5 y 9

Pico y Placa Medellín

martes

2 y 8  

2 y 8

Pico y Placa Medellín

domingo

no

no

Pico y Placa Medellín

sabado

no

no

Pico y Placa Medellín

lunes

3 y 4  

3 y 4

language COL arrow_drop_down

Con estas dos herramientas se podrían reconocer videos falsos

  • Las herramientas serán usadas por medios de comunicaciones y organizaciones involucradas en el proceso democrático. FOTO CORTESÌA MICROSOFT
    Las herramientas serán usadas por medios de comunicaciones y organizaciones involucradas en el proceso democrático. FOTO CORTESÌA MICROSOFT
  • Las herramientas serán usadas por medios de comunicaciones y organizaciones involucradas en el proceso democrático. Foto: Shutterstock
    Las herramientas serán usadas por medios de comunicaciones y organizaciones involucradas en el proceso democrático. Foto: Shutterstock
02 de septiembre de 2020
bookmark

La inteligencia artificial (IA) es la tecnología con la que se crean los deepfakes, videos falsos con una apariencia hiperrealista, los cuales se han convertido en un actor más en el panorama de la desinformación.

Sin embargo, la misma IA podría ser la respuesta para reconocer cuándo se trata de un video auténtico y cuándo no. Así lo confirmó Microsoft ayer en el lanzamiento de dos herramientas que quieren ayudar a reconocer los videos manipulados.

La primera es Microsoft Video Authenticator, que analiza una imagen fija para arrojar un porcentaje de probabilidad de que se trata de un fotograma alterado.

“En el caso de un vídeo, puede proporcionar este porcentaje en tiempo real en cada fotograma mientras se reproduce el vídeo. Funciona detectando el límite de la mezcla de la falsificación profunda y el desvanecimiento sutil o los elementos de escala de grises que podrían no ser detectables por el ojo humano”, explicó la compañía en un comunicado.

Le puede interesar: ¿Cómo se hacen los deepfakes? Vea ejemplos curiosos

Un grupo de investigadores en ingeniería y ética de la IA desarrollaron el autenticador con datos públicos que fueron puestos a prueba en sistemas de detección de falsificaciones profundas.

Otra tecnología, esta vez para los creadores de contenido, es una etiqueta digital que se puede añadir a un video o fotografía, y la cual puede viajar como un metadato con el archivo. Esto permitirá certificar y marcar a los autores originales de una imagen, porque no estará presente cuando se trate de una manipulada.

Esta herramienta va de la mano de un lector, que sería una extensión en el navegador, y que podría comprobar los certificados de cierto contenido para confirmar si coincide con las etiquetas que puso el creador inicialmente, “permitiendo a la gente saber con un alto grado de precisión que el contenido es auténtico y que no ha sido cambiado, así como proporcionar detalles acerca de quién lo produjo”, se lee en el sitio web de la compañía.

Le puede interesar: Microsoft dará acceso a inteligencia artificial para expertos en medio ambiente

Para poner en marcha la aplicación de las herramientas, la empresa hizo varias alianzas con organizaciones y medios de comunicación.

Señalaron que “a través de esta asociación, la iniciativa Reality Defender 2020 de la Fundación AI pondrá el Autentificador de Vídeo a disposición de las organizaciones involucradas en el proceso democrático, incluyendo los medios de comunicación y las campañas políticas”. Entre los medios citados con los que ya hay alianza son The New York Times y la BBC.

$!Las herramientas serán usadas por medios de comunicaciones y organizaciones involucradas en el proceso democrático. Foto: Shutterstock
Las herramientas serán usadas por medios de comunicaciones y organizaciones involucradas en el proceso democrático. Foto: Shutterstock
El empleo que buscas
está a un clic

Nuestros portales

Club intelecto

Club intelecto

Las más leídas

Te recomendamos

Utilidad para la vida

Regístrate al newsletter

PROCESANDO TU SOLICITUD