Mantener una postura crítica, utilizar herramientas de chequeo de contenidos y buscar inconsistencias en el audio o vídeo, son algunas de las recomendaciones que brinda Trend Micro para identificar un ‘deepfake’
La tecnología de los ‘deepfakes’ está avanzando rápidamente, lo que representa serios riesgos para la seguridad cibernética. A medida que esta amenaza progresa, las falsificaciones de video y audio se vuelven más realistas y, por ende, más convincentes.
De acuerdo con Ignacio Triana, director de estrategia de ciberseguridad para MCA en Trend Micro: “Nos enfrentamos a una situación en la que cualquier persona con conocimientos básicos puede crear un contenido falso muy convincente. Este fenómeno requiere una respuesta activa y coordinada para desarrollar herramientas de detección avanzadas y educar a la población en habilidades de verificación de información”.
Algunos de los riesgos a nivel de ciberseguridad son:
- Desinformación: los deepfakes pueden ser utilizados para crear contenido falso y engañoso que puede influir en la opinión pública, afectar procesos electorales y socavar la confianza en los medios de comunicación.
- Fraude financiero y extorsión: los ciberdelincuentes pueden crear videos o audios falsos de ejecutivos de empresas para engañar a usuarios comunes y hacer que transfieran fondos a cuentas fraudulentas.
- Suplantación de identidad y robo de datos: pueden ser utilizados para engañar a sistemas de reconocimiento facial o de voz, permitiendo el acceso no autorizado a cuentas y sistemas.
- Daño a la reputación, crear videos o imágenes falsas de personas comunes o figuras públicas en situaciones comprometedoras puede dañar su reputación personal y profesional.
- Ataques a la seguridad nacional: pueden ser utilizados para crear mensajes falsos de figuras clave en la seguridad nacional, creando confusión y potencialmente desestabilizando un país.
¿Cómo protegerse de un mundo rediseñado por la IA?
Si bien la tecnología juega un papel fundamental en la detección de estas falsificaciones, la educación y el pensamiento crítico son igualmente esenciales. Es necesario que los usuarios desarrollen habilidades para evaluar la veracidad de la información que consumen y adopten una postura escéptica ante contenidos que puedan ser manipulados.
En la actualidad, hay herramientas avanzadas para detectar contenidos generados por IA, mediante algoritmos que identifican inconsistencias en datos visuales y auditivos, pero los usuarios también podrán identificar de manera intuitiva si están frente a una amenaza de este estilo. Por ejemplo, cuando el sonido está clonado suele tener tonos inusuales, estáticos o presenta inconsistencias en los patrones del habla; en el caso de video se puede detectar posibles ruidos de fondo anormales, o cortos en la imagen.
También es clave verificar el origen del video o imagen y compararla con fuentes confiables mediante el uso de herramientas de chequeo de contenidos como: CrowdTangle, InVid y TweetDeck, para evaluar su autenticidad y
asegurarse de que se trata de una oferta legítima contactando directamente con la persona u organización que la promociona.
“El desafío de separar lo real de lo artificial no solo es técnico, sino también cultural. La tecnología avanza rápido, pero necesitamos tiempo y conciencia para adaptarnos y proteger la confianza en la información”, puntualiza Triana.
La búsqueda de la verdad en la era de la IA está en sus inicios. La capacidad para distinguir entre lo real y lo falso será uno de los retos clave para la sociedad moderna. En un mundo donde la realidad puede construirse artificialmente, la sociedad deberá encontrar maneras de adaptarse a este entorno, en el cual la tecnología puede facilitar tanto la comprensión como el ocultamiento de la verdad.