Los negociadores de la Unión Europea cerraron un acuerdo el viernes sobre las primeras normas de amplio alcance en materia de inteligencia artificial en el mundo, allanando el camino para la supervisión jurídica de la tecnología empleada en plataformas populares como ChatGPT que han prometido transformar la vida cotidiana y han suscitado alarmas por los graves peligros que supondrían para la humanidad.
Los negociadores del Parlamento Europeo y de los 27 países que integran el bloque, superaron grandes diferencias sobre puntos controvertidos, como la IA generativa y el uso policial del reconocimiento facial, para firmar un acuerdo político provisional con vistas a la Ley de Inteligencia Artificial.
“¡Trato hecho!”, tuiteó el comisionado europeo Thierry Breton poco antes de medianoche. “La UE se convierte en el primer continente en establecer normas claras para el uso de la IA”.
El resultado se obtuvo tras largas conversaciones a puerta cerrada esta semana, con una sesión que duró 22 horas antes de una segunda ronda que comenzó el viernes por la mañana.
Los funcionarios ofrecieron escasos detalles sobre lo que se incluirá exactamente en la futura ley, que no entrará en vigor al menos hasta 2025. Su objetivo era garantizar una victoria política de esta ley emblemática, pero se esperaba que dejaran la puerta abierta a nuevas conversaciones para concretar la letra pequeña, lo que probablemente conllevarán más presiones internas.
El Parlamento Europeo todavía tendrá que votar el acuerdo a principios del próximo año, pero ya que está cerrado, eso es una formalidad, dijo el viernes a The Associated Press Brando Benifei, un legislador italiano que codirige los esfuerzos de negociación del organismo.
Ahora, Estados Unidos, el Reino Unido, China y coaliciones mundiales como el Grupo de los Siete han presentado sus propias propuestas para regular la IA, aunque todavía tienen que alcanzar a Europa.
Las empresas de IA que tendrán que cumplir las normas de la UE probablemente extenderán también algunas de esas obligaciones a los mercados de fuera del continente, indicó. “Después de todo, no es eficiente entrenar modelos distintos para mercados diferentes”, dijo.
La Ley de IA se diseñó originalmente para mitigar los peligros de funciones específicas de la IA según su nivel de riesgo, de bajo a inaceptable. Pero los legisladores presionaron para ampliarla a los modelos fundacionales, esto es: los sistemas avanzados que sustentan servicios de IA de propósito general como ChatGPT y el chatbot Bard de Google.