Por: Ginger Saltos, Subgerente de Ciberseguridad de Banco Guayaquil
Si bien la inteligencia artificial tiene muchos beneficios, como automatización de procesos o la identificación de insights de negocio, es importante tomar en cuenta los diversos riesgos de utilizar nuevas tecnologías. Estos peligros deben ser analizados de acuerdo al contexto y realidad de cada empresa. Sin embargo, de manera general podemos listar los siguientes:
Toma de decisiones basado en IA entrenada con sesgos: el Reglamento Europeo de Inteligencia Artificial declara como pilar fundamental la prohibición de sesgos y la protección de los derechos fundamentales de los ciudadanos. Esto debido a que los modelos de IA entrenados con sesgos puede invitarnos a tomar decisiones que comprometan la seguridad o el cumplimiento normativo de una empresa, exponiendo vulnerabilidades y aumentando riesgos.
Vulnerabilidad de modelos de IA: es importante incluir seguridad desde la etapa del diseño, con ello podemos disminuir riesgos de explotación de vulnerabilidades como:
- Ingeniería inversa para extraer información sensible o replicar su funcionalidad con fines maliciosos.
- Ataques adversarios manipulando los datos de entrada para generar resultados incorrectos o peligrosos, como en el caso del reconocimiento facial o sistemas de análisis de fraudes.
Fuga de información en entrenamiento de la IA: Para entrenar los modelos de IA se requieren grandes volúmenes de datos aumentando el riesgo de exposición de datos sensibles, como información confidencial de clientes o propiedad intelectual.
Fuga de información en el uso de IA generativa: soluciones como ChatGPT nos permite realizar resúmenes, tablas, gráficas, obtener conclusiones, entre otros, a partir de la data que se entrega y la solicitud que se realiza. Es importante comprender que estas IAs son públicas: al subir la información para la obtención de un resultado, puede ser utilizada por otras personas alrededor del mundo. Por ello, es importante tener criterio sobre que tipo de información se utiliza para generar un resultado.
Fraudes y otros ataques: la IA puede suplantar identidades a través de deepfakes bastante convincentes que facilitan fraudes, engaños o desinformación dentro de una organización. Esto ya ha pasado varias a veces, pero el más reconocido es el que ocurrió en febrero de 2024 en Hong Kong, en la que una multinacional perdió $25 millones de dólares con una videollamada falsa con un Director de Finanzas.
Recomendaciones para minimizar el riesgo
- Impementar políticas de seguridad en la que se regule el uso de IA en la empresa.
- Aplicar prácticas de desarrollo seguro (DevSecOps) desde el diseño hasta el despliegue y mantenimiento de los modelos.
- Realizar de forma periódica pruebas de seguridad que permita detectar vulnerabilidades, manipulaciones o desviaciones en los modelos de IA.
- Mantener una gestión de vulnerabilidades y parches que permita tener los sistemas actualizados.
- Utilizar cifrado y técnicas de anonimización para proteger datos sensibles que se utilizan en la IA disminuyendo el riesgo de fuga de información.
- Limitar el acceso, modificación y/o entrenamiento de los modelos de IA de la empresa.
- Concientizar a los empleados y clientes sobre los riesgos asociados con la IA y dar tips de seguridad que permitan disminuir errores humanos que puedan comprometer la seguridad del sistema.
- Implementar herramientas de detección de deepfakes.
IA para estrategia de ciberseguridad empresarial
La IA en ciberseguridad no es algo nuevo. Se ha venido utilizando desde los 90, aproximadamente. Esto debido a que, con el avance de la tecnología, las personas y empresas nos volvimos cada vez más digitales y con ello aumentaron exponencialmente los ciberataques. Por ello, era importante buscar la forma de aumentar la velocidad de análisis en los eventos de seguridad de los sistemas para poder detectar, prevenir y contener ciberataques.
En definitiva, la IA transformó la ciberseguridad de las empresas al mejorar la capacidad de defensa, ahora las protecciones son más inteligentes y proactivas y se disminuyó el tiempo de respuesta a incidentes.
En la estrategia de ciberseguridad de una empresa, la IA puede ser utilizada para:
Protección de sistemas:
- Detección de amenazas en tiempo real, es decir, antes de que se conviertan en incidentes graves.
- Fortalece el acceso a los sistemas a través del uso de reconocimiento biométrico o sistemas de autenticación de riesgo adaptativo, que ajustan el nivel de seguridad según el comportamiento del usuario.
Automatizar la respuesta a incidentes: reduce el tiempo de reacción y minimizando el posible daño. Los antivirus y animalwares han evolucionado para convertirse en sistemas de detección y respuesta automática (EDR) y estas utilizan algoritmos de IA para detectar y contener ciberataques en tiempo real.
Análisis predictivo de posibles vulnerabilidades o vectores de ataque: utiliza datos históricos para tomar decisiones con mayor seguridad y rápidez.
Reduce falsos positivos en sistemas de protección: permite centrar la atención en amenazas reales y de mayor criticidad.