La inteligencia artificial (IA) es la tecnología con la que se crean los deepfakes, videos falsos con una apariencia hiperrealista, los cuales se han convertido en un actor más en el panorama de la desinformación.
Sin embargo, la misma IA podría ser la respuesta para reconocer cuándo se trata de un video auténtico y cuándo no. Así lo confirmó Microsoft ayer en el lanzamiento de dos herramientas que quieren ayudar a reconocer los videos manipulados.
La primera es Microsoft Video Authenticator, que analiza una imagen fija para arrojar un porcentaje de probabilidad de que se trata de un fotograma alterado.
“En el caso de un vídeo, puede proporcionar este porcentaje en tiempo real en cada fotograma mientras se reproduce el vídeo. Funciona detectando el límite de la mezcla de la falsificación profunda y el desvanecimiento sutil o los elementos de escala de grises que podrían no ser detectables por el ojo humano”, explicó la compañía en un comunicado.
Le puede interesar: ¿Cómo se hacen los deepfakes? Vea ejemplos curiosos
Un grupo de investigadores en ingeniería y ética de la IA desarrollaron el autenticador con datos públicos que fueron puestos a prueba en sistemas de detección de falsificaciones profundas.
Otra tecnología, esta vez para los creadores de contenido, es una etiqueta digital que se puede añadir a un video o fotografía, y la cual puede viajar como un metadato con el archivo. Esto permitirá certificar y marcar a los autores originales de una imagen, porque no estará presente cuando se trate de una manipulada.
Esta herramienta va de la mano de un lector, que sería una extensión en el navegador, y que podría comprobar los certificados de cierto contenido para confirmar si coincide con las etiquetas que puso el creador inicialmente, “permitiendo a la gente saber con un alto grado de precisión que el contenido es auténtico y que no ha sido cambiado, así como proporcionar detalles acerca de quién lo produjo”, se lee en el sitio web de la compañía.
Le puede interesar: Microsoft dará acceso a inteligencia artificial para expertos en medio ambiente
Para poner en marcha la aplicación de las herramientas, la empresa hizo varias alianzas con organizaciones y medios de comunicación.
Señalaron que “a través de esta asociación, la iniciativa Reality Defender 2020 de la Fundación AI pondrá el Autentificador de Vídeo a disposición de las organizaciones involucradas en el proceso democrático, incluyendo los medios de comunicación y las campañas políticas”. Entre los medios citados con los que ya hay alianza son The New York Times y la BBC.