En Resumen
- El Parlamento Europeo aprobó la histórica Ley de Inteligencia Artificial para regular la IA de alto riesgo.
- La legislación prohíbe aplicaciones que amenacen los derechos ciudadanos y establece reglas estrictas para el uso de IA.
- La ley busca proteger derechos fundamentales, fomentar la innovación y establecer entornos de pruebas para apoyar a las PYMEs.
El Parlamento Europeo aprobó el miércoles de forma abrumadora una ley histórica para regular la inteligencia artificial. Anunciada como la normativa de IA más completa del mundo, la Ley de Inteligencia Artificial entrará en vigor más adelante este año.
La Ley de IA tiene como objetivo proteger los derechos fundamentales, la democracia, el estado de derecho y la sostenibilidad ambiental de la IA de alto riesgo, según señaló el Parlamento Europeo en su anuncio oficial, al mismo tiempo que impulsa la innovación.
"Finalmente, tenemos la primera ley vinculante del mundo sobre inteligencia artificial para reducir riesgos, crear oportunidades, combatir la discriminación y aumentar la transparencia", dijo Brando Benifei, un legislador italiano que copresidió el trabajo del cuerpo legislativo en la legislación. "Gracias al Parlamento, las prácticas de IA inaceptables serán prohibidas en Europa, y se protegerán los derechos de los trabajadores y los ciudadanos".
La ley prohíbe ciertas aplicaciones de inteligencia artificial que podrían amenazar los derechos de los ciudadanos, como la extracción no dirigida de imágenes faciales para crear bases de datos de reconocimiento facial, sistemas de categorización basados en características biométricas sensibles, puntuaciones sociales y reconocimiento de emociones en lugares de trabajo y escuelas.
Bajo las nuevas reglas, el contenido artificial o manipulado, conocido como "deepfakes", debe estar claramente etiquetado como tal.
Las herramientas de IA que manipulan el comportamiento humano o explotan vulnerabilidades técnicas también están prohibidas. El uso de sistemas de identificación biométrica por parte de las fuerzas del orden también está en gran medida prohibido, con excepciones limitadas.
Los sistemas de IA de alto riesgo se definen como aquellos utilizados en infraestructuras críticas, educación, empleo, servicios esenciales, fuerzas del orden, migración y procesos democráticos, y enfrentan los requisitos más estrictos. Deben evaluar y reducir los riesgos, mantener registros de uso, ser transparentes y precisos, y garantizar la supervisión humana.
La Ley de IA codifica el derecho de los ciudadanos a presentar quejas y recibir explicaciones sobre decisiones basadas en estos sistemas.
"La UE ha cumplido: hemos vinculado el concepto de inteligencia artificial a los valores fundamentales que forman la base de nuestras sociedades", dijo Dragos Tudorache, un legislador rumano que también copresidió el trabajo sobre el proyecto de ley, en el anuncio. "Sin embargo, queda mucho trabajo por delante que va más allá de la Ley de IA.
"La IA nos obligará a repensar el contrato social en el corazón de nuestras democracias, nuestros modelos educativos, mercados laborales y la forma en que llevamos a cabo la guerra", señaló.
La ley también establece requisitos de transparencia para los sistemas de IA de propósito general y los modelos en los que se basan, incluido el cumplimiento de la ley de derechos de autor de la UE y la publicación de resúmenes detallados del contenido de entrenamiento. Los modelos de IA de propósito general más potentes que podrían plantear riesgos sistémicos están sujetos a obligaciones adicionales.
Sin embargo, el uso de la IA no está totalmente desalentado. La ley también establece entornos de pruebas regulatorias y pruebas en el mundo real a nivel nacional para apoyar la innovación y hacerla accesible a las pequeñas y medianas empresas.
Los legisladores dicen que la Ley de IA responde directamente a las propuestas de los ciudadanos a través de la Conferencia sobre el Futuro de Europa, especialmente aquellas relacionadas con mejorar la competitividad de la UE en sectores estratégicos. El grupo también priorizó la seguridad y la confianza, promoviendo la innovación digital con supervisión humana y mejorando el acceso a la información.
Si bien la ley ha sido aprobada por el Parlamento Europeo, aún quedan algunos pasos finales antes de convertirse formalmente en ley, incluida una revisión legal final y el respaldo del Consejo Europeo. Se espera que entre en vigor en un par de meses, aunque diferentes disposiciones entrarán en vigor con el tiempo y en etapas.
Las empresas ya están trabajando para comprender y cumplir con la legislación.
"Quieren saber cómo escalar la tecnología y obtener valor de la IA", dijo a la BBC Kirsten Rulf, socia de Boston Consulting Group. “Las empresas necesitan y desean la certeza legal”.
Mientras que EE. UU. ha tomado algunas medidas ejecutivas, y otros países están desarrollando sus propias regulaciones de IA, la acción de la UE la sitúa a la vanguardia de los esfuerzos globales para abordar los peligros asociados con la IA.
"La adopción de la Ley de IA marca el comienzo de una nueva era de IA y su importancia no puede ser exagerada", dijo Enza Iannopollo, analista principal de Forrester, a la emisora británica. "La Ley de IA de la UE es el primer y único conjunto de requisitos vinculantes para mitigar los riesgos de la IA.
"Hará que la UE se convierta en el estándar global de facto para una IA confiable, dejando a todas las demás regiones, incluido el Reino Unido, a 'ponerse al día'", según afirmó Iannopollo.
Mientras tanto, los legisladores dicen que la Ley de IA es solo el primer paso.
"La Ley de IA no es el final del camino, sino el punto de partida para una nueva gobernanza construida en torno a la tecnología", dijo Tudorache.