La UE pacta la primera ley de inteligencia artificial en el mundo
Ningún gran bloque o país ha regulado aún la inteligencia artificial, pero las instituciones de la Unión Europea, que quiere ser la primera en hacerlo, pactaron el pasado 8 de diciembre una norma pionera que permitirá o prohibirá el uso de esta tecnología en función del riesgo que suponga para las personas. Ha sido bajo la presidencia española rotatoria del Consejo Europeo y con esta ley, que detallan en Sinc, se busca impulsar a la industria europea frente a gigantes como China y Estados Unidos.
Por cierto, ya hay acuerdo.
La #IAAct es una realidad
La @eu2023es alcanza el acuerdo para el primer reglamento sobre Inteligencia Artificial del mundo
Gracias a los equipos de @mintradigital @ComisionEuropea @Europarl_EN @SpainCoE https://t.co/fUurkvKXnz
— S.E. Digitalización e Inteligencia Artificial (@SEDIAgob) December 9, 2023
El pasado viernes, la UE pactó la primera ley de inteligencia artificial del mundo. Permitirá o prohibirá el uso de esta tecnología en función del riesgo que suponga para las personas. Además, impulsará a la industria europea frente a China y EE UUhttps://t.co/WOCuZ1kuym
— SINC (@agencia_sinc) December 12, 2023
“La ley de inteligencia artificial (IA) de la Unión Europea es pionera en el mundo. Un marco legal único para el desarrollo de la inteligencia artificial en el que se puede confiar”, señaló la presidenta de la Comisión Europea, Ursula von der Leyen, en un mensaje que publicó este viernes en la red social X (antes Twitter).
El acuerdo llegó tras 36 horas de negociaciones y aún lo tendrán que ratificar el Parlamento Europeo y el Consejo de la UE, la institución que representa a los Gobiernos europeos.
Vigilancia en tiempo real
Uno de los puntos más sensibles de las negociaciones ha sido el uso que las fuerzas del orden podrán hacer de las cámaras de identificación biométrica en espacios públicos para garantizar la seguridad nacional. Las cámaras se podrán utilizar con previa autorización judicial para prevenir una amenaza terrorista “genuina y previsible” o “genuina y presente”, es decir que se esté produciendo en ese momento.
También se podrán emplear para localizar o identificar a una persona que haya cometido delitos de terrorismo, tráfico de personas, explotación sexual o, por ejemplo, un crimen medioambiental y para buscar a las víctimas de estos delitos.
Durante las negociaciones, los gobiernos han presionado para ampliar la lista de delitos, mientras que la Eurocámara ha intentado limitarla lo máximo posible y obtener fuertes salvaguardas para los derechos fundamentales.
Sistemas prohibidos
La norma, además, prohíbe todos los sistemas de categorización biométrica por creencias políticas, religiosas, filosóficas o por su raza y orientación sexual. Tampoco se podrán utilizar los sistemas que puntúan a las personas en función de su comportamiento o características personales ni la inteligencia artificial capaz de manipular el comportamiento humano.
También estarán prohibidos los sistemas para expandir o crear bases de datos faciales captando datos de manera indiscriminada a través de internet o de grabaciones audiovisuales. Además, en los centros de trabajo o las escuelas también estarán prohibidos los sistemas de inteligencia artificial que pueden reconocer las emociones.
IA generativa
El otro gran asunto que ha centrado las negociaciones es la regulación de los sistemas de inteligencia artificial generativa, en los que se basan modelos como ChatGPT, de la empresa OpenAI o Bard, de Google. Tendrán que cumplir criterios de transparencia, como especificar si un texto, una canción o una fotografía se han generado a través de la IA y garantizar que los datos que se han empleado para entrenar a los sistemas respetan los derechos de autor.
Inicialmente, la ley no estaba pensada para regular este tipo de sistemas, porque aún no se habían popularizado cuando Bruselas propuso la ley en abril de 2021, pero las instituciones comunitarias han visto la necesidad de legislarlos desde el estallido de ChatGPT el año pasado.
El reglamento no prohíbe su uso pero sí ha establecido una serie de criterios para detectar los modelos que pueden generar un alto riesgo en función del contexto en el que se usen y obliga a sus desarrolladores a cumplir unas salvaguardas más estrictas antes de sacarlos al mercado.
Radiocable.com y su programa La Cafetera se financian con las aportaciones de lectores y oyentes. Necesitamos tu ayuda para sobrevivir. Si te gusta el periodismo que defiende el programa y sientes que te acompaña, hazte suscriptor-mecenas aquí.