Monitor de Innovación

A la nueva nor­ma­tiva aún le queda tiempo para en­trar en vigor tras ser apro­bada por el Parlamento y el Consejo

El acuerdo de la UE sobre el control de la IA, primer intento de regulación en el mundo

Las em­presas que in­cum­plan las dis­po­si­ciones serán pe­na­li­zadas con multas mi­llo­na­rias

European Union.
Unión Europea.

Ha cos­tado mucho tiempo e in­nu­me­ra­bles y ago­ta­doras se­siones de ne­go­cia­ción, pero el em­brión re­gu­la­torio de la Inteligencia Artificial (IA) ya está sobre la mesa eu­ro­pea. El pa­sado viernes por la noche -al borde del sá­bado- el Parlamento Europeo y los es­tados miem­bros de la Unión Europea lle­garon a un acuerdo para la fu­tura im­ple­men­ta­ción de la norma, que es­tará orien­tada a pro­teger los de­re­chos fun­da­men­tales frente a los riesgos de esta tec­no­lo­gía.

La necesidad de un marco regulatorio para la IA ha sido puesta de manifiesto en repetidas ocasiones por las voces más autorizadas de la industria tecnologica. Bill Gates, Mark Zuckerberg y Elon Musk, los respectivos mandamases de Microsoft, Meta (antes Facebook) y Tesla, llegaron a acudir al capitolio de Washington para concienciar al poder legislativo de EEUU de la urgencia de abordar la cuestión.

Con el pacto del 8 de diciembre, la UE se convierte en pionera en la tarea de poner diques normativos a la IA, aunque al borrador salido de la reunión le queda mucho camino por delante: aún debe ser ratificado por el Parlamento y el Consejo comunitarios, por lo que es probable que su entrada en vigor no tenga lugar hasta dentro de varios años.

La presidenta de la Comisión Europea, Ursula von der Leyen, declaró que el texto refleja “los valores europeos” y se centra en la regulación basada en riesgos identificables, promoviendo “la innovación responsable” y la defensa de “la seguridad y los derechos fundamentales” de personas y empresas.

Varios niveles de riesgo

El embrión de ley establece una gradación del riesgo que representa cada tipo de IA según su nivel de desarrollo y capacidades, disponiendo diferentes responsabilidades para sus responsables.

Entre las de mínimo riesgo se encuentran las más básicas, como los sistemas de recomendación o los filtros de spam, para las que no se contemplan obligaciones específicas salvo las que quieran autoimponerse sus gestores; en el siguiente escalón están las IA de alto riesgo, para las que se exigirán requisitos estrictos de monitorización humana, ciberseguridad, registro, seguimiento y documentación; y finalmente el nivel de riesgo inaceptable, en el que se incluyen aquellas IA que supongan una amenaza para los derechos fundamentales de terceros, que estarán terminantemente prohibidas.

Tabién se exigirán requisitos adicionales de transparencia para IAs que presenten riesgos específicos, como es el caso de los 'deep fakes', que deberán ser etiquetados.

La UE usará el 'látigo' con los infractores

A los autores del texto no les ha temblado la mano a la hora de disponer las sanciones para aquellos gestores de Inteligencias Artificiales que quebranten los deberes contenidos en la norma. Las multas alcanzan los 35 millones de euros o el 7% del volumen de negocios global anual por violaciones de aplicaciones de IA prohibidas; y los 7,5 millones de euros o el 1,5% por proporcionar información incorrecta.

Artículos relacionados