Se prohibirán los sistemas que creen o amplíen bases de datos faciales, así como aquellos que puntúen a personas según su comportamiento o características personales. La ley se aplicará de forma progresiva hasta el año 2026, cuando entre completamente en vigor.

El Consejo de la Unión Europea aprobó este miércoles la primera ley a nivel mundial que modera el desarrollo, producción y uso de sistemas basados en inteligencia artificial (IA).

La ley se aplicará de forma progresiva hasta el año 2026, cuando entre completamente en vigor.

“La nueva ley tiene como objetivo fomentar el desarrollo y la adopción de sistemas de IA seguros y confiables en todo el mercado de la Unión Europea por parte de actores públicos y privados. Al mismo tiempo, pretende garantizar el respeto de los derechos fundamentales de los ciudadanos y estimular la inversión y la innovación alrededor de esta herramienta”, afirma el Consejo.

“Momento histórico“, dijo el secretario de Estado de Digitalización de Bélgica, Mathieu Michel, cuyo país ostenta este semestre la presidencia rotatoria de la Unión Europea.

En noviembre quedarán ya prohibidos los sistemas de inteligencia artificial de categorización biométrica por creencias políticas, religiosas, filosóficas o por su raza y orientación sexual.

Tampoco se podrán utilizar los sistemas que puntúan a las personas en función de su comportamiento o características personales ni la inteligencia artificial capaz de manipular el comportamiento humano.

También estarán prohibidos, entre otros, los sistemas para expandir o crear bases de datos faciales captados de manera indiscriminada a través de internet o de grabaciones audiovisuales.

No obstante, la normativa permite excepciones, de tal forma que las fuerzas de seguridad sí podrán utilizar las cámaras de identificación biométrica, siempre con autorización judicial, para prevenir una amenaza terrorista a punto de producirse.

Este fue uno de los puntos más polémicos durante las negociaciones entre el Parlamento Europeo y los Estados miembros, que argumentaron la necesidad de permitir ciertos usos para garantizar la seguridad nacional. Así, estos sistemas se podrán usar también para localizar a los responsables de delitos de terrorismo, tráfico de personas, explotación sexual, así como para buscar a las víctimas.

Dentro de un año, entrarán en vigor los criterios de transparencia que deberán cumplir los sistemas de inteligencia artificial generativa, otro de los principales puntos de discusión, en pleno auge de programas como ChatGPT.

Estos modelos tendrán que dejar claro si un texto, una canción o una fotografía se han generado a través de la inteligencia artificial y garantizar que los datos que se han empleado para entrenar a los sistemas respetan los derechos de autor.

En líneas generales, el reglamento permite o prohíbe el uso de la inteligencia artificial en función del riesgo que genera para las personas e identifica sistemas de alto riesgo que solo se podrán utilizar si se demuestra que respetan los derechos fundamentales.

Por ejemplo, los que se puedan utilizar para influir en el resultado de unas elecciones, los que empleen las entidades financieras para evaluar la solvencia y establecer la calificación crediticia.

Para quienes incumplan la normativa se prevén multas con un rango que va desde los 35 millones de euros (37.6 millones de dólares) o el 7% del volumen global de negocio de las empresas, hasta los 7.5 millones de euros (8 millones de dólares) o el 1.5 % del volumen global de negocio.

Fuente: Tiempo Argentino

Comenta sobre esta publicación