La sombra de la Inteligencia Artificial.

Share
Por Roberto Andrade Paredes, Profesor e investigador sobre ciberseguridad e IA, Universidad San Francisco de Quito, USFQ.

La Inteligencia Artificial (IA) ha transformado nuestra vida diaria, desde la automatización de industrias hasta los avances médicos. Nos ha prometido un futuro más inteligente, pero en esta carrera por adoptarla, ignoramos los riesgos inherentes que podrían tener consecuencias irreversibles. Si un sistema autónomo decide lo que es justo o adecuado, surge la pregunta: ¿en el futuro, los seres humanos seguiremos tomando el control de nuestras vidas?

El enigma de la autonomía y la ética en la IA

La autonomía de la IA plantea un desafío ético, Ruha Benjamin, profesora de Princeton, señala que “la IA nos permite delegar decisiones a sistemas fuera de nuestra comprensión” (Benjamin, 2019). Si las máquinas toman decisiones sin intervención humana, ¿quién responde cuando son perjudiciales? Stuart Russell, de la UC Berkeley, advierte que “la IA autónoma puede actuar sin considerar los intereses humanos” (Russell, 2021). En ciberseguridad, los sistemas autónomos detectan ataques rápidamente, pero también pueden ser usados para lanzar ciberataques masivos, explotando vulnerabilidades o manipulando infraestructuras críticas. Este riesgo ha sido planteado por organismos internacionales, especialmente en sistemas militares. Varios ejemplos son interesantemente planteados en el documental Killer Robots de Netflix.

La pérdida de la privacidad

La IA ha cambiado nuestra relación con la privacidad. Las grandes corporaciones utilizan nuestros datos para predecir nuestros comportamientos. Shoshana Zuboff, autora de The Age of Surveillance Capitalism, afirma que “la IA no solo analiza lo que hacemos, sino que predice lo que haremos” (Zuboff, 2019). Esta vigilancia, que escapa a nuestro control, es peligrosa. La misma tecnología que puede protegernos puede ser hackeada, permitiendo que actores malintencionados accedan a nuestros datos. Bruce Schneier, experto en seguridad, advierte que si “la IA, si no se maneja adecuadamente, puede comprometer nuestra seguridad y privacidad” (Schneier, 2020). Para mitigar estos riesgos, los controles de datos y su auditoría gestionados por la IA permiten proteger la privacidad, evitar abusos, y que los datos no se utilicen de manera maliciosa o invasiva.

La IA como herramienta de control y manipulación

La IA no solo afecta nuestra privacidad, sino que también puede convertirse en una herramienta de control social. Los algoritmos que determinan qué información consumimos no son neutrales. Cathy O’Neil, autora de Weapons of Math Destruction, señala que “los algoritmos están diseñados para maximizar beneficios, no el bien común” (O’Neil, 2016). De manera que la IA podría reforzar sesgos y crear burbujas de información y como lo señala Zeynep Tufekci, profesora en la Universidad de Carolina del Norte, “la IA amplifica las dinámicas sociales, contribuyendo a la fragmentación de la información” (Tufekci, 2018). Este poder de manipulación social es peligroso si no se regula adecuadamente. Aquí, el monitoreo constante de modelos de IA es imprescindible, la auditoría regular de estos modelos permite detectar desviaciones y ajustar su comportamiento, procurando que sus resultados sean siempre alineados con principios éticos y objetivos humanos.

La amenaza de la IA en la ciberseguridad

Mientras que los sistemas autónomos pueden detectar y neutralizar ataques rápidamente, también pueden ser utilizados para crear ataques sofisticados. Marc Goodman, experto en seguridad global, señala que “los sistemas autónomos de IA, si caen en manos equivocadas, pueden desestabilizar gobiernos y economías” (Goodman, 2015). En 2021, varios ataques informáticos con IA pusieron en riesgo la seguridad global, demostrando cómo estos sistemas pueden aprender a eludir las defensas tradicionales. Para abordar estos riesgos, las pruebas adversariales de IA ayudan a identificar cómo la IA puede ser vulnerada, proporcionando una evaluación crítica de las defensas de los sistemas.

La IA ética: Un llamado a la responsabilidad global

La IA sigue evolucionando, y debemos enfrentar preguntas difíciles sobre su uso. Timnit Gebru, experta en ética de la IA, subraya que “la IA refleja las ideologías de quienes la desarrollan” (Gebru, 2020). La falta de regulación en su desarrollo aumenta el riesgo de que la IA se use para manipular, controlar o explotar a las personas. La ética de la IA debe ser central, guiada por principios de transparencia, justicia y responsabilidad. Ryan Calo, profesor de Derecho en la Universidad de Washington, señala que “debemos establecer principios claros para regular la IA antes de que se convierta en una amenaza global” (Calo, 2021). Además, el desarrollo de modelos de IA debe ser guiado por principios éticos.

De aquí en adelante

La inteligencia artificial tiene un enorme potencial, pero también conlleva riesgos.  Desde su autonomía hasta su impacto en la privacidad, la manipulación social y la ciberseguridad, los desafíos que presenta la IA no pueden ser ignorados. Ruha Benjamin manifiesta que “si no se regula adecuadamente la IA, esta podría actuar fuera de nuestro control” (Benjamin, 2019). De manera que se debe crear marcos legales globales que aseguren el uso ético de la IA para evitar que se convierta en una amenaza para la humanidad. La tecnología debe ser una herramienta para el bienestar humano, no una fuerza que nos subyugue.