Como evitar ser engañado mediante voces generadas con IA

La inteligencia artificial (IA) indudablemente se ha tomado la agenda y esta revolucionando todos los aspectos de nuestras vidas, desde mi punto de vista una de sus aplicaciones más impactantes es la generación de contenido audiovisual. Sin embargo, esta capacidad también ha generado preocupaciones significativas en términos de seguridad y autenticidad, que sin duda es uno de los desafíos más apremiantes que tenemos en el mundo de la ciberseguridad.

1. Creación de Deepfakes

Los “deepfakes” son videos manipulados con IA que parecen auténticos, pero que en realidad han sido alterados. Estos videos pueden mostrar a personas diciendo o haciendo cosas que nunca ocurrieron. Esta tecnología puede ser utilizada para difundir desinformación, cometer fraude, o incluso extorsionar a individuos.

2. Falsificación de Voces

La IA también ha avanzado en la creación de voces sintéticas que suenan casi idénticas a las voces humanas. Esta capacidad permite crear grabaciones de audio falsas en las que una persona parece decir algo que en realidad no dijo. Esto puede tener consecuencias graves, como fraudes telefónicos o manipulación de evidencia en investigaciones legales.

La Importancia de los Sistemas de Autenticación

Para combatir estos riesgos, es crucial desarrollar y utilizar sistemas de autenticación que puedan verificar la autenticidad de videos y audios. Algunas estrategias incluyen:

1. Marcadores Digitales

Los marcadores digitales pueden ser insertados en el contenido original para garantizar su autenticidad. Estos marcadores actúan como una firma digital que es difícil de replicar o alterar sin ser detectada.

2. Análisis Forense de Medios

Las técnicas de análisis forense de medios pueden detectar inconsistencias en los videos y audios que podrían indicar manipulación. Por ejemplo, pueden identificar artefactos visuales o anomalías en la frecuencia de la voz que son comunes en los deepfakes.

3. Verificación en Blockchain

La tecnología blockchain puede ser utilizada para crear un registro inmutable de la creación y modificaciones de un contenido. Esto permite rastrear la autenticidad de un vídeo o audio desde su origen hasta su distribución final.

Una de las tecnologías que han demostrado gran avance las proporciona OmniHuman, es imposible no sorprenderse por la calidad de imágenes que produce.

OmniHuman crea vídeos de IA a partir de una imagen en un par de minutos, al poder generar vídeos tan fácilmente hasta Hollywood está en amenazado, las posibilidades son infinitas.

Pero como buena carrera armamentista, en este caso la IA se combate con más IA. Con OmniHuman actores maliciosos pueden hacerse pasar digitalmente por alguien y engañar a una víctima para que haga cosas como pagar un rescate. Para mitigar ese riesgo, se ha desarrollado esta sencilla solución en la que puede configurar un código de acceso de un solo uso (TOTP) único basado en el tiempo entre cualquier par de personas.

Así es como funciona:

  • Dos personas, la persona A y la persona B, se sientan frente a la misma computadora y abren esta página;
  • Introducen sus respectivos nombres (por ejemplo, Alice y Bob) en la misma página y hacen clic en “Generar”;
  • La página generará dos códigos QR TOTP, uno para Alice y otro para Bob;
  • Alice y Bob escanean el código QR respectivo en una aplicación móvil TOTP (como Authy o Google Authenticator) en sus respectivos teléfonos móviles;
  • En el futuro, cuando Alice hable con Bob por teléfono o por videollamada, y quiera verificar la identidad de Bob, Alice le pide a Bob que proporcione el código TOTP de 6 dígitos de la aplicación móvil. Si el código coincide con lo que Alice tiene en su propio teléfono, entonces Alice tiene más confianza en que está hablando con el verdadero Bob.

Pero el autor también alerta que tanto el teléfono de Alice y Bob deben ser seguros.

Sin duda una idea genial.

Referencias

[1] https://www.omnihumanapp.com/

[2] https://ksze.github.io/PeerAuth/

Leave a Comment

Your email address will not be published. Required fields are marked *