Viernes, 17 de Mayo de 2024 Nubes 11.2 °C nubes
 
Lunes, 11 de Octubre de 2021 Nubes 11.2 °C nubes
 
Dólar BNA: $928
Dólar Blue: $1100
Mundo

El Parlamento Europeo avanza hacia la regulación de la Inteligencia Artificial

El Parlamento Europeo discutió sobre la Inteligencia Artificial.

El Parlamento Europeo aprobó este jueves un texto a favor de la regulación de las herramientas de Inteligencia Artificial (IA) tales como ChatGPT. A grandes rasgos, la postura predominante fue favorable al establecimiento de límites y condiciones para la utilización de estas tecnologías en la Unión Europea, con una manifiesta preocupación por los excesos en su uso como trasfondo.

El documento aprobado por el Parlamento Europeo en favor de una regulación de la Inteligencia Artificial es un primer paso hacia la puesta de límites sobre este tipo de sistemas. El paso siguiente será presentarlo al Pleno parlamentario en junio para su adopción y, en adelante, restarán las negociaciones con los Estados miembro de la Unión Europea para acordar una ley definitiva.

Algunos de los principales rasgos de la regulación aprobada

La propuesta del Parlamento Europeo supone que los desarrolladores de IA tendrán que demostrar que sus sistemas no suponen grandes riesgos a la salud, a los derechos fundamentales ni a la democracia, y deberán someterse además a la evaluación por parte de profesionales independientes.

Prohibiciones y límites al uso de la Inteligencia Artificial

Una de las principales disposiciones del texto aprobado implica que quienes utilicen sistemas de IA para generar imágenes y sonidos o manipularlas, y cuyos trabajos puedan pasar por verdaderos, deberán informar que el contenido generado es falso.

Además, los creadores de este tipo de programas tendrán que publicar un resumen detallado de los datos con derechos de autor que utilizaron para entrenar sus sistemas, y deberán diseñarlos de forma tal que tengan “niveles apropiados” de seguridad, ciberseguridad, previsibilidad, rendimiento, interpretabilidad y corregibilidad.

La ley de Inteligencia Artificial propuesta establece una serie de prohibiciones concretas. Por ejemplo, impide los sistemas de vigilancia masiva en tiempo real en espacios públicos salvo que sea a los fines de prevenir delitos y localizar a posibles víctimas, y niega además el uso de técnicas subliminales para alterar el comportamiento de las personas.

Asimismo, califica como “de alto riesgo” algunos sistemas de Inteligencia Artificial como los que podrían influir en el resultado de las elecciones, los que puedan ser utilizados por entidades financieras para hacer evaluaciones sobre solvencia y la calificación crediticia de las personas, o los que emplee la policía de control de fronteras para vigilar o predecir movimientos migratorios. Este tipo de herramientas sólo se podrá introducir en el mercado si demuestra cumplir una serie de requisitos relacionados con el cumplimiento de derechos fundamentales y valores defendidos por la UE.

Por otra parte, se establecen condiciones para la implementación de IA en los lugares de trabajo. “Antes de poner en servicio o utilizar un sistema de IA de alto riesgo en el lugar de trabajo, los implementadores consultarán a los representantes de los trabajadores con el fin de llegar a un acuerdo e informar a los empleados afectados de que estarán sujetos al sistema”, detalla el documento que se aprobó en las comisiones de Mercado y de Libertades Civiles.

Las preocupaciones de los eurodiputados

Los legisladores europeos que aprobaron el texto regulatorio de la IA manifestaron su preocupación ante el uso de estos sistemas para detectar emociones. “Existen serias preocupaciones sobre la base científica de los sistemas de IA destinados a detectar emociones, características físicas o fisiológicas, como expresiones faciales, movimientos, frecuencia del pulso o voz”, se lee en el texto citado por ElDiario.es.

Asimismo, los eurodiputados se mostraron consternados por la llamada “Justicia predictiva”, aquellos sistemas que evalúan si una persona es o no un potencial criminal basándose en su personalidad, sus características o su pasado delictivo.

De igual manera, advirtieron sobre los riesgos de implementar sistemas de IA para que la policía descifre las emociones de las personas o para gestionar fronteras, además de alertar contra el uso de esta tecnología en instituciones educativas o en la creación de bases de datos faciales captando información indiscriminadamente a través de internet o de la televisión.

Está pasando