Monitor de Innovación

Bruselas con­mina a las grandes de la tec­no­logía a que iden­ti­fi­quen y ca­te­go­ricen los con­te­nidos ge­ne­rados por IA

La Comisión Europea se pone seria con la Inteligencia Artificial

El ob­je­tivo de la nueva re­gu­la­ción es que las em­presas se com­pro­metan a cum­plir un có­digo ético

Inteligencia artificial.
Inteligencia artificial.

La Comisión Europea (CE) no es in­mune a las in­quie­tantes pre­dic­ciones que or­bitan en torno al desa­rrollo de la Inteligencia Artificial (IA) y su ca­pa­cidad para ge­nerar des­in­for­ma­ción. El Ejecutivo Comunitario ha tras­la­dado a los gi­gantes tec­no­ló­gicos su vo­luntad de que, mien­tras se gesta una nor­ma­tiva clara al res­pecto, se com­pro­metan a cum­plir un con­junto de normas bá­sicas que al menos con­tri­buyan a mi­ni­mizar los ries­gos. Una de ellas es la de de­tectar y eti­quetar todos aque­llos con­te­nidos ge­ne­rados por má­qui­nas.

Las IA capaces de generar contenidos serán protagonistas de un apartado propio dentro del código de buenas prácticas contra la desinformación aprobado y complementado en los últimos años, ya firmado por algunas de las tecnológicas más potentes, como Google y Meta (Facebook). Este código ha sido abandonado recientemente por Twitter, compañía adquirida por el magnate Elon Musk hace algunos meses.

Se da la circunstancia de que fue precisamente Elon Musk el más prominente impulsor de un también reciente manifiesto que pedía la congelación durante seis meses en el desarrollo de lA. Mediante una carta abierta, firmada por 13.000 especialistas en tecnología, exigía que se llevaran a cabo protocolos legales y de seguridad adecuados antes de continuar con los avances, a fin de atajar "los profundos riesgos para la sociedad y la humanidad" que acarrearía una eventual pérdida de control sobre las máquinas pensantes.

Salvaguardas contra los engaños masivos

Bruselas exige a los grandes actores del escenario tecnológico que incluyan en sus protocolos las medidas de seguridad que sean necesarias para que las IA generativas (aquellas capaces de crear contenidos) no sean utilizadas para la manipulación.

De igual modo, se les insta a implementar instrumentos capaces de señalar todos aquellos contenidos generados por máquinas, de forma que los usuarios sean conscientes de que lo que están viendo o escuchando no tiene un origen humano.

"En cuestión de segundos, la IA generativa puede generar contenidos complejos, imágenes de cosas que nunca ocurrieron o voces de personas basadas en una muestra de escasos segundos", explicó a la prensa la vicepresidenta de la Comisión Europea y responsable de Valores y Transparencia, la checa Věra Jourová.

La CE reacciona así a la creciente preocupación expresada por las voces autorizadas del sector respecto a la creciente capacidad que, en malas manos, tienen las IA para engañar al ojo y oído humanos e influir en su capacidad de discernimiento y su interpretación de la realidad.

En una entrevista de la que se hizo eco Capital Madrid, el especialista Geoffrey Hinton, uno de los pioneros en esta tecnología, aseguró que los peligros ligados a ella son "aterradores" y podrían llevar a la humanidad a un futuro en el que "no podremos saber qué es verdad".

Artículos relacionados