IA revela una incertidumbre generalizada en el panorama empresarial

Share

De acuerdo con el estudio AI Pulse Poll 2026 de ISACA, basado en más de 3400 profesionales de confianza digital, el panorama de la inteligencia artificial sigue siendo confuso en lo que respecta a la rendición de cuentas, la transparencia y las capacidades para muchas organizaciones. 

La encuesta global, que recoge las respuestas de más de 3400 profesionales de la confianza digital en puestos relacionados con auditoría de TI, gobernanza, ciberseguridad, privacidad y tecnologías emergentes, revela que, incluso a medida que el uso de la IA se acelera en el ámbito empresarial, parece haber una supervisión humana limitada sobre la toma de decisiones de la IA, poca transparencia en torno a su uso e incertidumbre sobre la respuesta a incidentes de seguridad de la IA y la responsabilidad por los daños causados ​​por los sistemas de IA.  

A continuación, presentamos cinco resultados preliminares de la encuesta AI Pulse 2026. La encuesta completa AI Pulse 2026 de ISACA se publicará a principios de mayo. 

Detener la IA no es tarea fácil. El tiempo es crucial cuando ocurren incidentes de seguridad, lo que convierte la falta de confianza de los encuestados en su capacidad para detener rápidamente los sistemas de IA, en caso necesario, en un problema potencialmente grave. Más de la mitad (56 %) indica que desconoce con qué rapidez podría detener un sistema de IA debido a un incidente de seguridad, si fuera necesario. El 32 % cree que podría detenerlo en 60 minutos, y el 7 % afirma que les llevaría más de 60 minutos. 

Opiniones divididas sobre la responsabilidad final en materia de IA. Más de una cuarta parte de los encuestados (28 %) señalan a su junta directiva o ejecutivos como responsables. Otro 18 % cree que su CIO/CTO sería el responsable, el 13 % lo atribuye a su CISO y el 20 % desconoce a quién corresponde la responsabilidad. 

Mientras tanto, ShanShan Pa, autora del blog ISACA Now, destaca el valor de un modelo de responsabilidad compartida para la IA . 

La confianza es baja a la hora de explicar los incidentes de IA. Los incidentes de seguridad y privacidad de la IA son cada vez más frecuentes y suelen seguir patrones predecibles , pero menos de la mitad de los encuestados en Pulse Poll (43 por ciento) confían total o bastante en la capacidad de su organización para investigar y explicar a la dirección o a los reguladores si se ha producido un incidente grave con un sistema de IA, mientras que solo el 39 por ciento confía total o bastante en la gobernanza de datos de su organización en torno a la IA. 

Muchas acciones generadas por IA se realizan sin supervisión humana. Solo el 36 % de los encuestados afirma que los humanos aprueban la mayoría de las acciones generadas por IA antes de su ejecución, y el 26 % indica que los humanos revisan ciertas decisiones o patrones después de su ejecución. Además, el 11 % afirma que los humanos intervienen únicamente cuando se les alerta sobre posibles problemas, y el 20 % declara desconocer cómo se supervisa la toma de decisiones de la IA en su organización.  

Persiste la incertidumbre en torno a la transparencia. A menudo, las organizaciones tienen dificultades para explicar dónde, por qué y cómo utilizan la IA. «Muchas empresas con programas de IA avanzados han definido principios de gobernanza, como la equidad, la transparencia, la rendición de cuentas y la supervisión humana, pero les cuesta incorporarlos a las políticas operativas, los flujos de trabajo y los controles que rigen el despliegue diario de la IA», escribe Keith Bloomfield-DeWeese. 

La encuesta Pulse subraya estas preocupaciones. Solo el 18 % de los encuestados indica que la divulgación es obligatoria y se aplica si se ha utilizado IA para crear o contribuir sustancialmente a la elaboración de productos de trabajo, mientras que el 20 % afirma que la divulgación es obligatoria, pero no se aplica de forma sistemática. Otro 32 % señala que no existen requisitos de divulgación. 

Consulte más información en la encuesta AI Pulse de ISACA de mayo de 2026. Para obtener más recursos sobre IA de ISACA, visite www.isaca.org/ai . 

* Basado en el blog ISACA Now y resultados preliminares del AI Pulse Poll 2026 de ISACA.