LOADING

Type to search

Actualidad

Deepfakes: la nueva frontera de la desinformación.

Share

Mantener una postura crítica, utilizar herramientas de chequeo de contenidos y buscar inconsistencias en el audio o vídeo, son algunas de las recomendaciones que brinda Trend Micro para identificar un ‘deepfake’

La tecnología de los ‘deepfakes’ está avanzando rápidamente, lo que representa serios riesgos para la seguridad cibernética. A medida que esta amenaza progresa, las falsificaciones de video y audio se vuelven más realistas y, por ende, más convincentes.

De acuerdo con Ignacio Triana, director de estrategia de ciberseguridad para MCA en Trend Micro: “Nos enfrentamos a una situación en la que cualquier persona con conocimientos básicos puede crear un contenido falso muy convincente. Este fenómeno requiere una respuesta activa y coordinada para desarrollar herramientas de detección avanzadas y educar a la población en habilidades de verificación de información”.

Algunos de los riesgos a nivel de ciberseguridad son:

  • Desinformación: los deepfakes pueden ser utilizados para crear contenido falso y engañoso que puede influir en la opinión pública, afectar procesos electorales y socavar la confianza en los medios de comunicación.
  • Fraude financiero y extorsión: los ciberdelincuentes pueden crear videos o audios falsos de ejecutivos de empresas para engañar a usuarios comunes y hacer que transfieran fondos a cuentas fraudulentas.
  • Suplantación de identidad y robo de datos: pueden ser utilizados para engañar a sistemas de reconocimiento facial o de voz, permitiendo el acceso no autorizado a cuentas y sistemas.
  • Daño a la reputación, crear videos o imágenes falsas de personas comunes o figuras públicas en situaciones comprometedoras puede dañar su reputación personal y profesional.
  • Ataques a la seguridad nacional: pueden ser utilizados para crear mensajes falsos de figuras clave en la seguridad nacional, creando confusión y potencialmente desestabilizando un país.

¿Cómo protegerse de un mundo rediseñado por la IA?

Si bien la tecnología juega un papel fundamental en la detección de estas falsificaciones, la educación y el pensamiento crítico son igualmente esenciales. Es necesario que los usuarios desarrollen habilidades para evaluar la veracidad de la información que consumen y adopten una postura escéptica ante contenidos que puedan ser manipulados.

En la actualidad, hay herramientas avanzadas para detectar contenidos generados por IA, mediante algoritmos que identifican inconsistencias en datos visuales y auditivos, pero los usuarios también podrán identificar de manera intuitiva si están frente a una amenaza de este estilo. Por ejemplo, cuando el sonido está clonado suele tener tonos inusuales, estáticos o presenta inconsistencias en los patrones del habla; en el caso de video se puede detectar posibles ruidos de fondo anormales, o cortos en la imagen.

También es clave verificar el origen del video o imagen y compararla con fuentes confiables mediante el uso de herramientas de chequeo de contenidos como: CrowdTangle, InVid y TweetDeck, para evaluar su autenticidad y

asegurarse de que se trata de una oferta legítima contactando directamente con la persona u organización que la promociona.

“El desafío de separar lo real de lo artificial no solo es técnico, sino también cultural. La tecnología avanza rápido, pero necesitamos tiempo y conciencia para adaptarnos y proteger la confianza en la información”, puntualiza Triana.

La búsqueda de la verdad en la era de la IA está en sus inicios. La capacidad para distinguir entre lo real y lo falso será uno de los retos clave para la sociedad moderna. En un mundo donde la realidad puede construirse artificialmente, la sociedad deberá encontrar maneras de adaptarse a este entorno, en el cual la tecnología puede facilitar tanto la comprensión como el ocultamiento de la verdad.

Tags:

Leave a Comment

Your email address will not be published. Required fields are marked *

Cómo podemos ayudarte?