04-07-2023

Descubre los avances en la normativa de la IA: promoviendo un futuro ético y seguro

La legislación en el ámbito de la inteligencia artificial (IA) se encuentra en constante evolución para abordar los desafíos éticos de esta emocionante tecnología y garantizar su uso responsable y seguro. En esta nueva era de la IA, se están elaborando regulaciones particulares que tienen como objetivo alcanzar metas fundamentales y forjar un futuro en el que los derechos y  ibertades fundamentales, incluidos los valores de la Unión Europea, sean respetados.

No es casualidad que mencionemos los valores de la Unión en tanto que la primera normativa que ha dado el gran paso para regular la IA de manera expresa sería la propuesta de Reglamento por el que se establecen normas armonizadas en materia de inteligencia artificial y se modifican determinados actos legislativos de la Unión (Reglamento de IA) y que podría entrar en vigor a lo largo del año 2024.

¿Pero cuáles son realmente los objetivos esenciales del Reglamento de IA?

1 – Salvaguardar los Derechos Fundamentales: La legislación busca resguardar los derechos de las personas en el ámbito de la inteligencia artificial, previniendo prácticas que atenten directamente contra la legislación vigente en materia de derechos fundamentales, en particular el Reglamento General de Protección de Datos.

2 – Garantizar la seguridad de los sistemas de IA: Se busca establecer medidas y requisitos que aseguren que los sistemas de IA sean seguros y no representen un riesgo para la salud o la seguridad de las personas o para la confidencialidad, integridad y disponibilidad de la información manejada por estos sistemas.

3 – Impulsar la inversión e innovación en IA: La normativa proporciona seguridad jurídica para aquellos que desean invertir y desarrollar innovaciones en el campo de la IA, especialmente por el establecimiento de requisitos de transparencia en los sistemas de IA que ayudarán a prevenir posibles infracciones en materia de propiedad intelectual e industrial, fomentando así su crecimiento y adopción en beneficio de la sociedad.

4 – Reforzar la gobernanza y aplicación efectiva de la legislación: Se pretende fortalecer la gestión de la inteligencia artificial y garantizar una implementación efectiva de las leyes existentes en este ámbito. La rendición de cuentas es un pilar fundamental en el ámbito de las nuevas tecnologías.

5 – Facilitar la creación de un mercado único: La normativa tiene como objetivo fomentar un mercado único de IA en la Unión Europea, estableciendo reglas y estándares comunes para garantizar la interoperabilidad y una competencia justa.

Ahora bien, ¿qué prácticas exactamente se consideran prohibidas en el contexto de la IA?

El Reglamento también establece una serie de prácticas prohibidas que deben evitarse en el uso de la inteligencia artificial. Algunas de ellas incluyen:

1. Uso de técnicas subliminales en los sistemas de IA para manipular el comportamiento de las personas, a menos que se obtenga un consentimiento informado y específico para fines terapéuticos.

2. Implementación de sistemas de «social scoring» que clasifiquen de manera injustificada o desproporcionada la confiabilidad de las personas, basándose en su comportamiento social o características personales, y que resulten en un trato perjudicial o desfavorable en contextos sociales desvinculados de aquellos en los que se recopilaron los datos.

3. Utilización de sistemas de IA predictivos de la criminalidad, que evalúen el riesgo de reincidencia o de cometer delitos, a menos que exista una base legal clara y justificada para su utilización.

4. Empleo de sistemas de identificación biométrica remota en tiempo real de personas en espacios públicos, a menos que se cumplan ciertas excepciones, como una autorización judicial o se permitan en virtud de la legislación.

 

Además, existen prácticas de “alto riesgo” que requieren atención especial

La normativa establece requisitos específicos para los sistemas de IA considerados de alto riesgo para los derechos y libertades fundamentales de las personas. Estos requisitos incluyen:

1. Implementación de un sistema de gestión de riesgos, que analice, identifique, estime y evalúe los riesgos asociados al sistema de IA.

2. Cumplimiento de criterios de calidad para los conjuntos de datos de entrenamiento, asegurando que los datos sean relevantes, representativos, precisos y completos.

3. Documentación técnica detallada del sistema de IA antes de su introducción en el mercado, que incluya información sobre su propósito, los responsables de su desarrollo, las versiones de software utilizadas y la descripción del soporte físico en el que opera.

4. Registro automático de eventos del sistema de IA durante su funcionamiento, incluyendo información como el período de uso, los datos de entrada y las personas involucradas en la verificación de los resultados.

5. Garantía de un nivel adecuado de transparencia para que los usuarios puedan interpretar y utilizar correctamente la información generada por el sistema de IA, proporcionando información sobre el proveedor, las características y las limitaciones del sistema.

6. Supervisión efectiva por parte de personas durante el uso del sistema de IA, utilizando una interfaz humano-máquina que permita prevenir o reducir los riesgos para la salud, la seguridad o los derechos fundamentales.

 

Es importante tener en cuenta que tanto los proveedores como los usuarios de sistemas de IA de alto riesgo tienen obligaciones específicas que deben cumplir para garantizar un uso responsable y ético de la tecnología.

En cuanto a los proveedores, éstas incluyen documentar el cumplimiento de la normativa vigente mediante políticas y procedimientos claros, así como someter los sistemas de IA a evaluaciones de conformidad realizadas por terceros confiables antes de su lanzamiento al mercado. Además, los proveedores deben conservar los registros generados automáticamente por los sistemas de IA, notificando a las autoridades competentes cualquier incidente grave o fallo detectado durante su funcionamiento.

En el caso de proveedores de sistemas de IA generativa (crea contenido original de manera autónoma), existen exigencias adicionales de transparencia. Esto implica informar a los usuarios cuando interactúan con un sistema de IA y hacer público si el contenido generado es artificial o ha sido manipulado. Además, los proveedores deben garantizar que la generación de contenido cumple con la legislación de la Unión Europea y documentar de manera detallada el uso de datos de entrenamiento protegidos por propiedad intelectual.

Por otro lado, los usuarios de sistemas de IA de alto riesgo también tienen responsabilidades importantes. Esto implica utilizar el sistema de acuerdo con su finalidad prevista y cumplir con las instrucciones y requisitos proporcionados por el proveedor.

 

¿Podrá la sociedad beneficiarse de forma responsable de esta tecnología?

En definitiva, el Reglamento de IA tiene como objetivo principal garantizar el respeto de los derechos fundamentales, promover la seguridad y fomentar la inversión e innovación en este campo. A través de la prohibición de prácticas dañinas, el establecimiento de requisitos para sistemas de alto riesgo y la imposición de obligaciones tanto a proveedores como usuarios, se busca impulsar un uso ético y beneficioso de la IA en provecho de la sociedad la sociedad.

Comprender estas regulaciones y considerar otras normativas relevantes es fundamental para avanzar hacia un futuro en el que la IA sea una herramienta segura y responsable, impulsando el progreso tecnológico al servicio de la sociedad y sus valores fundamentales.

Newsletter

Acepto las condiciones