Negocios

Deepfakes en México: Cómo combatirlos en el contexto de las Elecciones de 2024

 La amenaza creciente de los deepfakes en México

Fake

Fake

Especial

En los últimos años, México ha enfrentado un aumento preocupante en el uso de deepfakes, tecnología que utiliza la inteligencia artificial para generar contenido audiovisual falso de manera casi indistinguible de la realidad. Estas herramientas han sido utilizadas para tergiversar discursos políticos, difundir información falsa y manipular la opinión pública, lo que plantea una seria amenaza para la democracia en México de cara a las elecciones de 2024.

Por ejemplo, en enero de 2024, la imagen de Claudia Sheinbaum, aspirante presidencial de Morena, fue usada para un video deepfake generado con Inteligencia Artificial, en el que invitaba a los mexicanos a invertir en una supuesta plataforma financiera.

“Hola a todos, hoy les presento una maravillosa oportunidad. Sus $4,000 pesos cambiarán para siempre su futuro financiero. Su éxito está asegurado con solo unos clics de distancia. Imagínense ganar desde $100,000 pesos al mes, sin invertir grandes sumas de dinero o arriesgarse a perder todos sus ingresos. Sí, han escuchado bien, esto no es un sueño”, decía el vídeo fraudulento.

El preocupante aumento del uso de deepfakes en la sociedad mexicana

Desde hace dos años, la sociedad mexicana ha sido testigo de un incremento del 300% en el uso de deepfakes. Este fenómeno se ha traducido en un crecimiento exponencial de la desinformación y la manipulación en línea, con profundas implicaciones para la sociedad. Según las estadísticas, el 70% de la población mexicana desconoce qué son los deepfakes, lo que les deja vulnerables ante su influencia.

Avances tecnológicos contra los deepfakes

Empresas tecnológicas como Veridas se esfuerzan en crear herramientas para identificar y detener las falsificaciones. Esto incluye herramientas como las comprobaciones biométricas (uso de rasgos corporales únicos para confirmar la identidad) y marcas de agua digitales (marcas secretas que demuestran si un vídeo es real). La IA (Inteligencia Artificial) también es de gran ayuda para detectar las diferencias entre contenidos reales y falsos. Pero la tecnología por sí sola no basta. Son necesarias leyes que controlen el uso de deepfakes y la cooperación de toda la sociedad para que estas soluciones sean eficaces. A medida que se acercan las próximas elecciones, aunar estos avances resulta cada vez más crucial para proteger la verdad y la democracia.

Biometría de voz para combatir los "deepfakes" de voz

Biometría de voz para combatir los "deepfakes" de voz

La tecnología biométrica de la voz se está convirtiendo en vital en la lucha contra las falsificaciones de voz mediante el análisis de rasgos vocales únicos para confirmar la identidad de la persona.

Esta tecnología dificulta que los falsificadores de voz imiten a alguien con precisión gracias a su identificación de firma vocal única, sus funciones antifalsificación y su autenticación continua durante el uso.

Ante el aumento alarmante en la detección de deepfakes a nivel mundial, que en 2023 fue diez veces mayor que el número identificado en 2022, surge la necesidad de una solución eficaz. Veridas ha desarrollado "Voice Shield", una solución avanzada anti-spoofing que diferencia con precisión entre una voz real y una voz pregrabada, manipulada o generada artificialmente (deepfakes). Voice Shield verifica la autenticidad de las voces en cuestión de segundos, gracias a las tecnologías de detección de vida de Veridas. Esta solución está diseñada para determinar si una conversación es con una persona real o una entidad artificial.Esta solución responde a la creciente preocupación de fraudes basados en la voz, como la creación de cuentas bancarias fraudulentas y el robo de identidad, que han aumentado con los deepfakes.

Con más de 5 millones de procesos realizados en Europa y LATAM, Veridas lanza al mercado Voice Shield como la solución clave para neutralizar los intentos de fraude de voz más sofisticados, asegurando que los clientes estén protegidos con una tecnología moderna y probada

Vídeos falsos con deepfakes

Los sistemas biométricos faciales equipados con tecnologías de detección de ataques a la presentación (PAD) y de prueba de vida proporcionan herramientas importantes contra la proliferación de vídeos engañosos, sobre todo los que influyen en acontecimientos políticos como las elecciones estadounidenses. Estos sistemas avanzados distinguen las características humanas reales de las creadas artificialmente por las tecnologías deepfake. Analizan los detalles faciales, los movimientos y las respuestas naturales para garantizar la autenticidad.

Además, la aplicación de pruebas de vida activas y pasivas garantiza una interacción humana genuina al verificar los sutiles signos de vida que suelen estar ausentes en las representaciones sintéticas. Las pruebas activas requieren que una persona realice determinadas acciones, mientras que las pasivas analizan discretamente las señales humanas naturales. Aunque estos mecanismos de protección mejoran significativamente la seguridad, no son completamente infalibles.

La importancia de la regulación y la colaboración público-privada

Es evidente que la falta de regulación en torno a los deepfakes deja a la sociedad en una situación de vulnerabilidad extrema, por lo que resulta imperativo que tanto el sector público como el privado trabajen en conjunto para desarrollar marcos regulatorios que aborden esta amenaza de manera efectiva. La colaboración entre ambas partes es fundamental para enfrentar este desafío y proteger la integridad de las instituciones democráticas mexicanas.

El compromiso de Veridas y otras empresas en la lucha contra los deepfakes

Empresas como Veridas están comprometidas en la lucha contra los deepfakes y juegan un papel importante en el desarrollo de soluciones tecnológicas para abordar este desafío. Su experiencia y liderazgo en el campo de la tecnología biométrica pueden ser fundamentales para proteger la integridad de las elecciones de 2024 y la democracia de México en general.

Conclusiones y llamado a la acción

En conclusión, los deepfakes son peligrosos porque pueden difundir información falsa, influir injustamente en la opinión pública y dañar la confianza en la democracia mexicana. Reconocer estas falsificaciones se está convirtiendo en algo tan importante como aprender a leer y escribir, especialmente a medida que estas falsificaciones se vuelven más sofisticadas.

Aquí es donde entran en juego las empresas tecnológicas. Cada vez se pide más a estas organizaciones que se posicionen y lideren la lucha contra los medios manipulados. Los sistemas biométricos, equipados con funciones antifalsificación, ofrecen un método para distinguir eficazmente entre contenidos auténticos y sintéticos.