La UE se prepara para endurecer el uso del ChatGPT

La presidencia del Consejo de la Unión Europea (UE) en el próximo semestre y durante su mandato tendrá que cerrar el expediente legislativo de la herramienta de inteligencia artificial (IA). 

Actualmente, el reglamento por el que se establecen normas armonizadas en materia de IA se encuentra a debate en el Parlamento Europeo a la espera de que en los próximos días se apruebe su versión definitiva. La Comisión Europea, el Parlamento y el Consejo tendrán que consensuar una opinión común, y España será la encargada de terminar todas las negociaciones de este triálogo para su aprobación final. 

Uno de los principales escollos del reglamento ha sido “establecer el concepto de IA para que sea aplicable conceptualmente también a los nuevos avances tecnológicos”, aseguró Julián García Marcos, magistrado de la Audiencia Provincial de Gipuzkoa, durante un reciente encuentro organizado por La Ley. 

El Consejo de la UE ha definido la IA como un sistema diseñado para funcionar con un cierto nivel de autonomía con datos proporcionados para lograr unos objetivos definidos por humanos utilizando aprendizaje para producir contenido, predicciones, recomendaciones o decisiones que influyen en los entornos con los que el sistema interactúa. García Marcos considera que “es una definición tecnológicamente neutra y que responderá bien al paso del tiempo”. 

La regulación legal de esta tecnología se fundamenta en los diferentes riesgos que se pueden distinguir en su utilización. El reglamento establece un riesgo inaceptable y, por tanto, prohíbe el uso de sistemas contrarios a los valores fundamentales de la UE. Entre estas prohibiciones se encuentra la utilización de técnicas subliminales con el objetivo de alterar el comportamiento de las personas; los sistemas que aprovechen las vulnerabilidades de un grupo específico de personas, o la utilización de sistemas de identificación biométrica remota en tiempo real en espacios de acceso público por las autoridades encargadas de la prevención, investigación, detección o enjuiciamiento de delitos. En cambio, destaca García Marcos, la herramienta no está prohibida cuando la usan empresas y personas privadas, aunque sí se considera de alto riesgo. 

Otro de los pilares de la futura norma es considerar una serie de sistemas de IA como de alto riesgo, siempre que cumplan dos condiciones. En primer lugar, que sean componentes de seguridad de productos contemplados en la legislación de armonización de la UE, como máquinas, juguetes, embarcaciones, equipos de protección, etc. Además, deben estar incluidos en el listado de sectores del anexo III de la propuesta: biometría, educación, empleo, acceso a servicios esenciales, aplicación de la ley, migración o justicia. 

Insertando imagen...

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *