Esta herramienta le ayudará a cazar deep fakes antes de las elecciones.

A dos meses de las elecciones presidenciales de EE.UU. en 2020, Microsoft ha introducido una nueva herramienta para ayudar a detectar las falsificaciones, o medios de comunicación que han sido manipulados con inteligencia artificial. Este tipo de fotos, videos y grabaciones de audio aparecen en las campañas de desinformación, convirtiéndolas en un obstáculo para los políticos, los reguladores y el público.

En una entrada de blog esta semana, Microsoft dijo “a corto plazo, como las próximas elecciones en los Estados Unidos, las tecnologías de detección avanzada pueden ser una herramienta útil para ayudar a los usuarios más perspicaces a identificar las falsificaciones”.

El Autentificador de Video de Microsoft busca pequeñas discrepancias en las imágenes, videos o audio en cuestión, que sólo las computadoras pueden “ver”. En las falsificaciones visuales, por ejemplo, el sistema detecta “límites de mezcla”, o elementos en escala de grises y desvanecimientos sutiles que normalmente son invisibles para el ojo humano.

Con cada deepfake, alguien ha diseñado un medio para sacar la imagen o el vídeo fuera de contexto, haciendo que parezca o suene como si una persona hubiera dicho cosas que no ha dicho, o aparecido en lugares en los que no ha estado.

En 2014, Ian Goodfellow, un estudiante de doctorado que ahora trabaja en Apple, inventó el deepfake, que se basa en las redes generativas de adversarios, o GAN. Estas pueden ayudar a los algoritmos a ir más allá de la simple tarea de clasificar datos en el ámbito de la creación de datos, en este caso, imágenes. Esto sucede cuando dos GANs tratan de engañarse mutuamente para que piensen que una imagen es real. Usando tan solo una imagen, una GAN probada puede crear un video clip de, digamos, Richard Nixon.

Es fácil ver cómo los malos actores pueden usar la tecnología para influir en la opinión política. El año pasado, por ejemplo, un video viral de Nancy Pelosi, la presidenta de la Cámara de Representantes demócrata, circuló por los medios sociales. En él, parecía estar arrastrando una especie de soliloquio sin sentido y borracho. El presidente Donald Trump compartió ese video en Twitter, pero no era real. Era un engaño.

El Microsoft Video Authenticator analiza este tipo de imágenes y videos y les asigna un puntaje de confianza (charla de informática para un porcentaje de probabilidad) que muestra cuán probable es que alguien haya manipulado ese medio.