Europa abraza la Inteligencia Artificial
Europa será la primera potencia mundial en tener su propia ley sobre Inteligencia Artificial. A raíz de la propuesta de la Comisión Europea sobre IA, el Parlamento Europeo ha decidido recoger el testigo y aprobar su postura sobre el ‘Informe sobre Inteligencia Artificial en la Era Digital’ que marcará las líneas maestras que tendrá esta pionera legislación.
Europa se pone de acuerdo en cómo se debe regular la IA. No ha sido fácil. Han hecho falta 18 meses de trabajo y decenas de seminarios y conferencias para poner de acuerdo a los eurodiputados de los distintos grupos políticos. Y todavía hay matices, como la regulación del reconocimiento facial, donde la votación ha sido ajustada. La razón no es otra que la complejidad de la propia tecnología de Inteligencia Artificial.
Europa quiere por un lado impulsar la industria basada en la IA, pero por otro lado son conscientes de los enormes riesgos y desafíos que conlleva. Conseguir un acuerdo equilibrado, capaz de recoger estos dos puntos que parecen casi antagónicos ha sido uno de los principales obstáculos.
A falta de grandes empresas, Europa toma la iniciativa mundial en el ámbito legal. «La Inteligencia Artificial tiene una relevancia estratégica. Con esta nueva legislación, Europa es pionera y marca la pauta de las normas globales», ha explicado Axel Voss, ponente alemán y responsable de llevar a cabo esta iniciativa.
Desde Europa son conscientes que hace falta mucha inversión para alcanzar el nivel de EE.UU o China en IA, pero sí se muestran orgullosos de sentar unas bases concretas para intentar lograr que los sistemas con IA que haya en Europa sean bajo determinadas reglas. Y también bajo la esperanza de que, gracias a este marco legal, muchas empresas se sientan cómodas desarrollando nuevas IAs.
Hasta 20.000 millones de euros de inversión al año. Según ha explicado Margrethe Vestager, Comisaria de Competencia, el objetivo es pasar a unos 20.000 millones de euros de inversión anual público-privada. Actualmente se invierten entre 12 y 14.000 millones de euros. Y si tenemos en cuenta únicamente el dinero público, se invierten unos 1.000 millones de euros en Europa, lejos de los 5.100 millones de EEUU o los 6.800 millones de euros en China.
Un humano detrás de los sistemas de IA más susceptibles. «La IA no debe darnos miedo, pero sí girar alrededor del ser humano», defiende Axel Voss. La legislación acordada contará con mecanismos específicos de supervisión humana en los casos de riesgo. Es decir, en sectores especialmente sensibles como los de salud, educación o movilidad, donde los sesgos del algoritmo podrían llevar a discriminación, será un humano el que pueda intervenir en el sistema para paliar estos sesgos en tomas de decisiones que puedan afectar a la población de manera muy importante.
Pongamos el caso de diagnósticos mediante IA, servicios públicos, reclutamiento de personal o inmigración. En estos ámbitos que las distintas instituciones de la Unión Europea consideran de «alto riesgo» se establecerán varias obligaciones, como un análisis de riesgos, trazabilidad de resultados, documentación detallada, supervisión humana y un alto nivel de robustez.
Las IAs quedarán diferenciadas en función del riesgo. La legislación propuesta por la Comisión y en la que se basa el informe del Parlamento diferenciará las IA no en función de su sector o la tecnología utilizada, sino en función del riesgo que puedan afectar a derechos fundamentales, como la no discriminación o la privacidad.
Lilian Edwards, profesor de Derecho e Innovación en la Universidad Newcastle.
El primer nivel será el de riesgo inadmisible, aquellos que supongan una amenaza para la seguridad. Estos deberían quedar prohibidos según la propuesta. Aquí se incluyen desde sistemas que fomenten un comportamiento peligroso en menores hasta sistemas de «puntuación social» por parte de los gobiernos. Ha habido debate sobre si los sistemas de reconocimiento biométrico se incluirán aquí, pero la votación final es que no se incluya una prohibición generalizada.
No hay grandes prohibiciones (tampoco al reconocimiento facial). Salvo los casos más extremos, el Parlamento Europeo ha decidido apostar por una legislación más pragmática. Con la idea de seguir dando aire a esta tecnología, no habrá grandes prohibiciones. Europa ha querido evitar por el momento enviar un mensaje negativo.
El caso del reconocimiento facial era uno de los más debatidos y las enmiendas relacionadas con este asunto han sido las que han recibido más votos, aunque ninguna de ellas ha sido implementada. La Comisión estableció una categoría especial para ello, quedando prohibido su uso pero únicamente en zonas públicas y en directo. Sin embargo, se añadieron excepciones como en los casos de búsqueda de un niño desaparecido, prevenir una amenaza terrorista específica e inminente o para «detectar, localizar, identificar o enjuiciar a un perpetrador o sospechoso de un delito grave».
Miapetra Kumpula-Natri, eurodiputada socialista, ha explicado que «no podemos centrarnos en tecnologías específicas. Hay que encontrar un punto de equilibrio político y evitar una frustración futura al ver la IA evolucionar». Esta combinación entre una visión impulsadora y una visión moderadora es lo que ha permitido que el Parlamento Europeo se haya puesto de acuerdo. Si bien, desde algunos grupos parlamentarios siguen queriendo impulsar una legislación más restrictiva respecto a los usos del reconocimiento facial.
La falta de control sobre las IAs convertidas en armas genera votos en contra. El grupo The Left ha decidido votar en contra. Barrena Arza, eurodiputado vasco, ha explicado que el acuerdo «carece de puntos como un serio análisis de riesgos; una colaboración real a nivel multinacional y no se ha prohibido ni el reconocimiento facial ni las armas con IA».
Europa busca crear un equivalente al RGPD pero para la IA. El Reglamento General de Protección de Datos se considera un referente en las instituciones europeas. Mientras que entonces se crearon las reglas para trabajar con nuestros datos, ahora se está mirando cómo construir un reglamento con la vista puesta hasta 2030 y que establezca las normas sobre el impacto de los algoritmos, qué limitaciones tendrán y quién debe hacerse responsable.
Según la Comisión, las empresas o proveedores de estos sistemas de IA que no cumplan con la legislación se expondrán a multas de hasta un 6% de sus ingresos globales anuales, el mismo porcentaje que el RGPD y ligeramente superior al 4% que inicialmente se propuso.
El texto legal final todavía tiene camino por delante. Si algo tienen las instituciones europeas es que se deben pasar por varios procesos y debates antes de llegar a la implementación final. Con la legislación de la Inteligencia Artificial estamos todavía ante una primera fase, de estudio sobre los conceptos que deben ser relevantes.
La Comisión fue la primera en proponer regular la IA, pero el Parlamento Europeo es el único organismo donde los representantes han sido votados por la ciudadanía. Y por tanto debe ser ahí donde se aprueban las iniciativas ha tomar. Después de estudiar el informe durante un año y medio, el Parlamento ha aprobado hoy que la Inteligencia Artificial merece una ley propia y esta debe adecuarse a determinados valores europeos. Pocos países, salvo Finlandia o España, tienen iniciativas gubernamentales alrededor de la IA, pero no entran en el marco legal.
El siguiente paso. La Comisión Europea ahora propondrá una legislación concreta, la AI Act, lo que debería ocurrir hacia finales de septiembre de 2022. Una propuesta que volverá a manos del Parlamento y que para principios de 2023 debería quedar aprobada definitivamente. Tras un corto periodo, habitualmente de 6 meses, esta debería quedar implementada sin necesidad de pasar por transposiciones en cada país. Será entonces cuando la Unión Europea pueda presumir de tener la primera legislación sobre Inteligencia Artificial del mundo. Hasta entonces, faltan muchos debates por cerrar.
FUENTE
XATAKA