La Ley de IA de la Unión Europea sigue ganando peso. Después de su aprobación el año pasado, y de la entrada en vigor en febrero de las primeras prohibiciones, la normativa ahora pone coto a los modelos de inteligencia artificial de propósito general, entre los que se encuentran herramientas como ChatGPT, Gemini o Grok. Desde este mismo sábado 2 de agosto, las empresas desarrolladoras tendrán que cumplir con nuevos criterios de transparencia y seguridad siempre y cuando quieran evitar posibles multas. Estas pueden ascender hasta el 7% de la facturación global anual de la firma infractora o a los 35 millones de euros.
A partir de ahora, cualquier desarrollador de una herramienta de inteligencia artificial capaz de deberá proporcionar información técnica clara y actualizada sobre su tecnología a las empresas que utilicen sus servicios y a las autoridades europeas, en concreto a la Oficina de IA europea. En esta se deberá explicar cómo fue capacitada y testada.
Los desarrollos más avanzados, además, tendrán que realizar evaluaciones de seguridad de forma continua, informar sobre incidentes graves y hacer todo lo posible para que sus productos no sufran vulnerabilidades que puedan poner en riesgo los datos de los usuarios.
La que ya ha anunciado que no tiene intención de firmar el código, aunque tendrá que cumplir con la normativa de igual modo, es Meta. La empresa dirigida por Mark Zuckerberg, que está quemando miles de millones de euros con el fin de crear la ‘superinteligencia’ -esa máquina que será más lista que el humano más listo-, cree que la normativa ahogará la innovación. «Frenará el desarrollo y la implementación de modelos de IA de frontera en Europa y obstaculizará a las empresas europeas que buscan construir negocios sobre ellos», afirmó Joel Kaplan, director de asuntos globales de Meta.
Source: www.abc.es