ley IA act

Este es una de las newsletters antiguas que se enviaron de forma exclusiva a los miembros del Club Negocios Seguros, y que se liberan públicamente un mes más tarde.

Si quieres recibir las actuales cada martes y jueves en tu bandeja de correo, hazte miembro ahora.

*******

Negocios Seguros

Newsletter 888

*******

Pues sí, ya tenemos información sobre cómo sera la IA Act (EN) de Europa. La primera ley que busca regular la inteligencia artificial en el mundo… desde la óptica occidental, claro.

¡Vamos al lío!

Cuándo entrará en vigor

Empiezo por el final.

Básicamente, estamos ante un acuerdo provisional. Esto quiere decir que todavía puede variar ligeramente de lo que nos acabe llegando al populacho.

Pero ya hay fechas para su entrada en vigor: 2026.

Eso sí, algunas de sus cláusulas se espera que entren en vigor bastante antes. Sobre todo las consideradas críticas, como veremos a continuación.

Pilar 1: transparencia

Ahondando en la ley, hay, como cabría esperar, mucho interés en cómo se plantea en Europa la regulación de la IA en materia de transparencia de datos y explotación de su uso.

Al respecto de esto, la ley no deja lugar a dudas: Todo aquello que haya sido creado, aunque sea parcialmente, mediante herramientas de IA, va a tener que estar marcado como tal.

Decirlo es fácil, claro, pero ya veremos cómo van a poder implementarlo en la práctica. Sobre todo teniendo en cuenta dónde pondremos los límites.

Y me explico:

  • Un libro creado mediante alguna herramienta de IA, está claro que debería ser marcado como tal.
  • Un libro cuyo índice fue asistido mediante alguna herramienta de AI, ¿debería también ser marcado como tal?
  • Y ya puestos, un libro en cuya corrección se utilizaron herramientas de una suite informática que están asistidas mediante IA, ¿también debería ser marcado como tal?

Con el primero lo tenemos claro. Con los otros dos… ya no tanto. Más si tenemos en cuenta que muy probablemente la IA acabe por estar presente en la amplia mayoría de herramientas que usaremos a partir de ahora.

Cosas a priori tan habituales para creadores de contenido como puede ser quitar el fondo a una fotografía… están asistidas por algoritmos de inteligencia artificial. Y quizás no tenga mucho sentido tener que marcar esa foto como creada por una IA… cuando todo lo demás, foto incluida, ha sido creada por el humano.

Eso sin olvidarnos de que precisamente aquellos que vayan a hacer al uso de esta herramienta (deepfakes para cibercrimen, contenidos generados por IA en páginas de desinformación o propaganda…) como que no van a estar muy por la labor de marcarse como tal.

Y que, en esencia, dudo mucho que encontremos alguna manera en el futuro de identificar sin ningún margen de error (o con un margen muy pequeño) si algo ha sido o no creado mediante herramientas de inteligencia artificial.

Si ya hoy en día nos cuesta a veces diferenciarlo, dale unos añitos y a ver quién es el guapo que puede hacerlo…

Pilar 2: Clasificación por riesgos

La otra gran pata de la IA Act sí me parece más interesante, ya que versa sobre cómo catalogar las herramientas de IA según el potencial riesgo que suponen.

Así, se definen tres categorías distintas:

  • De riesgo mínimo: Donde estarán presumiblemente enmarcadas la mayoría de sistemas de IA, y en este caso, la ley es bastante laxa. Podrán o no acogerse a unos códigos de conducta mínimos (como el marcado de contenido generado por IA). Como ejemplo, tienes los sistemas de recomendación algorítmica o los filtros de spam.
  • De riesgo alto: Considerados así porque potencialmente suponen un daño a la salud, seguridad, los derechos fundamentales, el medio ambiente, la democracia y el Estado de Derecho. Este tipo de herramientas deberán cumplir una serie de requisitos, como es el registro de actividades, contar con una documentación detalla, informar claramente al usuario de los datos que está utilizando para el funcionamiento de la herramienta, contar con una supervisión humana, y cumplir unos mínimos de ciberseguridad e integridad tanto de los datos como del propio sistema. Como ejemplo, tienes herramientas que gestionen infraestructuras críticas, dispositivos médicos, control de fronteras, administración de justicia y los sistemas biométricos.
  • De riesgo inaceptable: Aquellos que se considere que son una clara amenaza a los derechos fundamentales de los ciudadanos. Estas IAs, por razones obvias, estarán prohibidas. Le voy a dedicar un apartado a continuación.

Aplicaciones prohibidas o con regulación especial

Entre las aplicaciones prohibidas, es decir, las que se catalogan como de riesgo inaceptable, tenemos las siguientes:

  • Sistemas de categorización biométrica que utilizan características sensibles (como puede ser credo, religión, orientación sexual o raza).
  • Sistemas de extracción para bases de datos captando información indiscriminadamente a través de internet, TV o CCTV.
  • Reconocimiento de emociones en el lugar de trabajo y en instituciones educativas.
  • Social scoring, o lo que es lo mismo, la puntuación social basada en comportamiento social o características personales.
  • Sistemas de IA que manipulan el comportamiento humano para alterar su libre voluntad.
  • Sistemas de IA que explotan las vulnerabilidades humanas, por ejemplo, la edad, discapacidad, situación social o económica.

Por último, hay un apartado completo dedicado a los sistemas de identificación biométrica, que como era de esperar, estarán muy limitados para su uso generalista… a excepción de aquellas herramientas enfocadas a la seguridad, que deberán contar con una autorización judicial PREVIA, y pueden ser utilizados por las fuerzas y cuerpos del Estado.

Conclusiones

Creo que es un buen comienzo, sobre todo porque marca un punto de inflexión a la hora de categorizar las tipologías de IA en base al potencial riesgo que suponen.

Respecto a las multas, van desde los 7,5 millones o el 1,5% del volumen de negocios hasta los 35 millones o el 7% del volumen a las empresas que lo incumplan según su gravedad.

Eso o directamente expulsarlas del mercado europeo, claro.

Donde tengo más dudas es en el cómo se aplicará en un entorno que parece estará dominado, aunque sea a bajo nivel, con muchas de estas herramientas.

Eso y qué pasará con aquellos que han llegado a posicionarse como referentes, como es el caso de OpenAI, aprovechándose de una serie de artimañas legales y cuanto menos poco éticas.

Tengo pendiente, para terminar, un artículo que publicaré espero en próximas semanas en CyberBrainers explicando por qué, pese a que este tipo de regulaciones son necesarias, suponen de facto un freno que nos aleja, nuevamente, de liderar uno de los sectores estratégicos del futuro presente.

Que parece que en Europa no aprendemos

Este tipo de cosas me jode, porque parece que siempre salen ganando los más listillos.

________

Si quieres recibir contenido exclusivo como éste el día uno y directamente en tu bandeja de correo cada martes y jueves, hazte miembro del Club «NEGOCIOS SEGUROS».

Banner negocios seguros