Un marco legal para regular la IA en Ecuador
Share
Por: Patricia Acosta-Vargas, Miembro del Comité de Inteligencia Artificial. Directora de la Maestría en Experiencia de Usuario, UDLA.
La creciente influencia de la Inteligencia Artificial (IA) en nuestras vidas ha puesto de manifiesto la necesidad de establecer un marco legal sólido que regule su desarrollo y uso. En Ecuador, como en muchos otros países, la IA se está integrando en diversos sectores, desde la salud hasta la justicia, lo que hace fundamental garantizar que esta tecnología se utilice de manera ética y responsable. Una ley de IA no solo permitiría proteger los derechos fundamentales de los ciudadanos, como la privacidad y la no discriminación, sino que también fomentaría la innovación y el crecimiento económico.
Los riesgos asociados con la IA, como la propagación de desinformación, la automatización de empleos y la toma de decisiones algorítmicas sesgadas, subrayan la necesidad de una regulación efectiva. Una ley de IA podría establecer estándares de transparencia y explicabilidad para los sistemas de IA, junto con mecanismos de supervisión y control para prevenir abusos. Además, esta normativa tendría el potencial de promover la investigación y el desarrollo de tecnologías de IA que sean seguras y beneficiosas para la sociedad en su conjunto.
Aspectos más relevantes del proyecto de ley
El Proyecto de Ley Orgánica de Regulación y Promoción de la Inteligencia Artificial en Ecuador busca establecer un marco legal que regule el desarrollo y uso de esta tecnología en el país con el fin de proteger los derechos de los ciudadanos, promover una innovación responsable y asegurar un uso ético de esta tecnología. La ley propone clasificar los sistemas de IA por nivel de riesgo y exigir transparencia en su funcionamiento.
El Proyecto de Ley Orgánica de Regulación y Promoción de la Inteligencia Artificial en Ecuador se enmarca en este contexto, buscando regular el desarrollo y uso de esta tecnología en el país. Su propósito es proteger los derechos de los ciudadanos, promover una innovación responsable y asegurar un uso ético de la IA. La propuesta de ley propone clasificar los sistemas de IA por nivel de riesgo y exigir transparencia en su funcionamiento.
Uno de los aspectos más destacados de este proyecto es su énfasis en la protección de los derechos fundamentales, busca garantizar la privacidad de los datos personales utilizados en los sistemas de IA y prevenir su uso con fines discriminatorios.
La aprobación de esta ley tendría importantes implicaciones para Ecuador. Proporcionaría certidumbre jurídica a las empresas que desarrollan e implementan sistemas de IA, además, impulsaría la inversión e innovación, mientras que garantizaría la protección de los ciudadanos frente a los posibles riesgos asociados con el uso de esta tecnología.
Sin embargo, para su implementación efectiva, será necesario contar con recursos y capacidades institucionales adecuados, así como con una continua adaptación y capacitación frente a los rápidos avances tecnológicos.
Una ley para mantener el equilibrio
Contar con un marco normativo anticipado que regule el desarrollo y uso de la IA para prevenir abusos, daños y fallas es esencial. Este marco debe contemplar la protección de datos personales, garantizando que su tratamiento se realice bajo principios de privacidad, seguridad y consentimiento informado. La transparencia también es clave, exigiendo a los desarrolladores de IA que informen de manera clara y accesible sobre el funcionamiento de sus sistemas, los datos utilizados y las decisiones tomadas por los algoritmos. La trazabilidad y la capacidad de auditar estos sistemas ayudan a que las decisiones algorítmicas no sean discriminatorias.
En cuanto a la defensa del consumidor, el marco normativo debe incluir medidas que protejan a los usuarios de posibles daños derivados de decisiones automatizadas, proporcionando mecanismos para impugnar decisiones que afecten sus derechos y evitando que los sistemas de IA no induzcan a errores o confusión.
Por otro lado, la competencia debe ser regulada para evitar prácticas anticompetitivas y permitan a las pequeñas y medianas empresas competir en igualdad de condiciones con las grandes corporaciones que utilizan IA.
Para aprovechar los beneficios de la IA es necesario contar con una legislación flexible que beneficie a toda la sociedad e impulse el avance de esta herramienta y requiere la colaboración del gobierno, empresas, la sociedad civil y la academia.
El rol del Comité de IA en el marco de la propuesta del proyecto de ley
El Comité de Inteligencia Artificial tendrá la tarea de acompañar en la creación de normas que regulen la adopción ética, responsable y sostenible de la IA en Ecuador. Este comité estará compuesto por expertos de diversas disciplinas, como derecho, ética, tecnología, IA, economía y ciencias sociales, además de representantes de la academia, el gobierno, el sector empresarial y la sociedad civil, seleccionados mediante concurso público. Además de su rol regulador, el Comité emitirá directrices y recomendaciones para mejorar continuamente el marco normativo, adaptándose a los avances tecnológicos y a los cambios en el entorno social y económico.
Patricia Acosta-Vargas, doctora en Informática y directora de la Maestría en Experiencia de Usuario en la Universidad de las Américas (UDLA), es miembro principal del Comité de IA. Sus funciones incluyen acompañar la creación de normas para la adopción ética y sostenible de la IA en el país, así como asesorar en la identificación y priorización de iniciativas de IA que se implementarán en 2025 dentro de la Agenda Digital Integral.
Señala que el comité contará con el apoyo del PNUD que apoya a los países en el desarrollo de sistemas de inteligencia artificial éticos mediante la herramienta AI Readiness Assessment (AIRA) (Evaluación del grado de preparación para la inteligencia artificial), que ayuda a los gobiernos a comprender y a evaluar el panorama de la inteligencia artificial y el nivel de conocimiento experto en sus sectores.
Patricia propone trabajar directamente con gerentes de IT para obtener una perspectiva empresarial y tecnológica, establecer un marco de auditoría para certificar sistemas de IA, y crear un Observatorio Nacional de IA. Además, sugiere elaborar una guía de buenas prácticas para el desarrollo y uso de IA, con recomendaciones sobre ética, equidad y sostenibilidad.
Consultamos con ella si la adopción de un marco regulatorio afectaría la normal adopción de tecnología en las empresas ecuatorianas. Desde su perspectiva, para definir un marco regulatorio efectivo para la IA es importante clasificar los sistemas según su nivel de riesgo. Esto permitirá una implementación ágil de tecnologías de bajo riesgo, mientras que aquellas con mayor impacto serán sometidas a evaluaciones más rigurosas. Las empresas deben explicar claramente el funcionamiento de sus sistemas de IA, asegurando el respeto a la privacidad y el consentimiento informado. Además, deben definir la responsabilidad en el uso de IA y establecer mecanismos para que los ciudadanos puedan impugnar decisiones automatizadas que consideren injustas. La formación y capacitación de empresas y trabajadores aportará para que cumplan con las normativas y se adapten a los avances tecnológicos. Finalmente, la colaboración entre el gobierno, la academia y el sector privado ayudará para que la regulación no frene la innovación.
Sobre cómo se puede regular el uso de sistemas de IA cuando otros sistemas tecnológicos, como ERP o CRM, no están regulados, Patricia comenta que la IA requiere un enfoque diferente debido a su capacidad para tomar decisiones autónomas que impactan directamente los derechos fundamentales de las personas. A diferencia de ERP y CRM, la IA tiene un potencial de riesgo mayor, lo que justifica una regulación específica enfocada en su autonomía y capacidad de influencia. Un marco regulatorio para la IA debe basarse en la clasificación de riesgos y exigir transparencia y explicabilidad, especialmente en contextos sensibles, para garantizar decisiones justas y no discriminatorias.
Finalmente, sobre la regulación de IA en sistemas empresariales como los ERP que incorporan elementos de IA, señala que es importante que la normativa diferencie entre las funciones tradicionales del ERP y las capacidades impulsadas por IA. De manera que cualquier procesamiento de datos mediante IA cumpla con las leyes de privacidad y seguridad, y que las empresas sean responsables de las decisiones automatizadas que afectan a usuarios o procesos empresariales, protegiendo tanto a las organizaciones como a sus clientes.