La IA tiene regulación oficial

El Parlamento Europeo aprobó este miércoles una normativa para regular los sistemas de Inteligencia Artificial. Entre otras, prevé prohibiciones estrictas en el uso de la identificación y biométrica.

El Parlamento Europeo aprobó este miércoles una normativa para regular los sistemas de inteligencia artificial (IA) como el ChatGPT, una legislación pionera en el mundo, que entraría en vigencia en 2026.

El objetivo principal es “proteger los derechos fundamentales, la democracia, el Estado de derecho y la sostenibilidad medioambiental frente a la IA que entraña un alto riesgo, impulsando al mismo tiempo la innovación y erigiendo a Europa en líder del sector”.

Con esta ley, el uso de sistemas de identificación biométrica por parte de las fuerzas de seguridad queda prohibido, salvo en situaciones muy concretas y bien definidas. Los sistemas de identificación biométrica en tiempo real solo se podrán emplear si se cumplen una serie de salvaguardias estrictas; por ejemplo, su uso se limita a un período y lugar específicos y cuenta con una autorización judicial o administrativa previa.

Las nuevas normas prohíben ciertas aplicaciones de inteligencia artificial que atentan contra los derechos de la ciudadanía, como los sistemas de categorización biométrica basados en características sensibles y la captura indiscriminada de imágenes faciales de internet o grabaciones de cámaras de vigilancia para crear bases de datos de reconocimiento facial.

Con esta ley, el uso de sistemas de identificación biométrica por parte de las fuerzas de seguridad queda prohibido, salvo en situaciones muy concretas y bien definidas. Los sistemas de identificación biométrica en tiempo real solo se podrán emplear si se cumplen una serie de salvaguardias estrictas; por ejemplo, su uso se limita a un período y lugar específicos y cuenta con una autorización judicial o administrativa previa.

En cuanto a requisitos de transparencias, se deberá respetar la legislación de la UE sobre derechos de autor y publicar resúmenes detallados del contenido usado para entrenar sus modelos. Los modelos más potentes que podrían plantear riesgos sistémicos deberán cumplir requisitos adicionales, como realizar evaluaciones de los modelos, analizar y mitigar los riesgos sistémicos e informar sobre los incidentes.

Además, las imágenes, contenidos de audio o de vídeo artificiales o manipulados deberán etiquetarse claramente como tales.

Por otra parte, se deberá poner a disposición de las pymes y de las empresas emergentes espacios controlados de pruebas y ensayos en condiciones reales a nivel nacional para que puedan desarrollar y entrenar la IA innovadora antes de su comercialización.

La ley entrará en vigencia 20 días después de su publicación en el Diario Oficial y será de plena aplicación 24 meses después de su entrada en vigor, con excepción de: las prohibiciones de prácticas (se aplicarán seis meses después de la fecha de entrada en vigor); los códigos de buenas prácticas (nueve meses después); las normas sobre la IA de uso general, incluida la gobernanza (doce meses después), y las obligaciones para los sistemas de alto riesgo (treinta y seis meses después).

Fuente: Actualidad Jurídica Online