馃帣 Episodio 73. Regulaci贸n de la Inteligencia Artificial en Europa

En el episodio de hoy de Un podcast ninja sobre Big Data repasamos el borrador sobre la regulaci贸n de la Inteligencia Artificial en Europa (AI Act) 鈿栵笍

El reglamento sobre Inteligencia Artificial europeo resumido en un podcast 馃槈

La ley europea de Inteligencia Artifical

El objetivo del AI Act (regulaci贸n europea sobre la Inteligencia Artificial) es asegurar que los sistemas de Inteligencia Artificial a los que podamos acceder en el mercado europeo sean seguros y respeten los derechos fundamentales y valores de la Uni贸n Europea.

Peeero tambi茅n estimulando la inversi贸n e innovaci贸n de la Inteligencia Artificial en Europa.

Veamos c贸mo se hace  esto.

Niveles de riesgo de los sistemas de IA

La idea es regular los sistemas de Inteligencia Artificial seg煤n la capacidad que tengan de causar da帽o a la sociedad.

Se definen varios niveles de riesgo.

Sistemas de Inteligencia Artificial prohibidos

Para empezar se prohibe el uso de sistemas de IA que empleen t茅cnicas que distorsionen significativamente el comportamiento de una persona.

Tambi茅n est谩 prohibido est谩 prohibido categorizar a las personas en base a datos biom茅tricos para averiguar cosas como su  raza, sus opiniones pol铆ticas, o su orientaci贸n sexual, etc.

La Ley Europea de IA prohibe el uso de sistemas de Inteligencia Artificial para evaluar o clasificar a personas bas谩ndose en su comportamiento social.

Por supuesto, nada de identificaci贸n de personas en tiempo real en espacios p煤blicos o usar la IA para evaluar el riesgo de que una persona cometa delitos bas谩ndose 煤nicamente en su perfil o caracter铆sticas de personalidad.

Disclaimer

Todo esto s贸lo aplica para 谩reas sujetas a la legislaci贸n europea por lo que deja fuera todo lo que tenga que ver con cualquier cosa que tenga que ver con seguridad nacional de cada pa铆s o sistemas que se utilicen exclusivamente para defensa.

Adem谩s si los sistemas de IA son s贸lo para investigaci贸n o para 谩mbito no profesional, pues tampoco aplica.

Sistemas de Inteligencia Artificial de riesgo alto

Estos sistemas de IA son aquellos utilizados en contextos cr铆ticos que afectan significativamente los derechos fundamentales, la seguridad, la educaci贸n, el empleo, el acceso a servicios esenciales, la aplicaci贸n de la ley, la gesti贸n de la migraci贸n, el asilo, el control fronterizo, la administraci贸n de justicia y los procesos democr谩ticos. 

Por ejemplo, sistemas de IA como componentes cr铆ticos gestionando el tr谩fico vial o los suministros de agua, gas, calefacci贸n y electricidad, tambi茅n de alto riesgo.

Otro ejemplo ser铆a utilizar IA para automatizar procesos de selecci贸n a un puesto de trabajo o para evaluar la solvencia de una persona a la hora de aprobarle un cr茅dito o para revisar de manera autom谩tica solicitudes de asilo o visado.

Todos esos son sistemas de IA de alto riesgo.

Requisitos de los sistemas de IA de riesgo alto

Estos sistemas tienen que cumplir una serie de requisitos:

  • Contar con un proceso de gesti贸n de riesgos bien definido y continuo que incluya la identificaci贸n, an谩lisis, evaluaci贸n y mitigaci贸n de estos riesgos.
  • Someterse a las pruebas adecuadas y analizar si el sistema de IA podr铆a tener alg煤n impacto negativo en menores o en grupos vulnerables.

 Adem谩s de esto, los datos de entrenamiento de este tipo de modelos tambi茅n tienen que cumplir una criterios de calidad espec铆ficos. Estos criterios buscan identificar y mitigar sesgos en los conjuntos de datos que puedan afectar negativamente la salud, la seguridad de las personas, impactar derechos fundamentales o conducir a discriminaciones.

Por supuesto, los datos deben ser gestionados y protegidos de acuerdo con las mejores pr谩cticas de seguridad y privacidad y las decisiones de dise帽o, los procesos de recopilaci贸n de datos, las operaciones de preparaci贸n de datos y las medidas tomadas para detectar y corregir sesgos deben estar bien documentadas. 

Documentaci贸n everywhere.

Porque ser谩 necesario preparar la documentaci贸n t茅cnica de estos sistemas de IA antes de que se comercialice o se pongan en servicio, y obviamente debe mantenerse actualizada. 

Adem谩s, los sistemas de IA de riesgo alto deben ser dise帽ados y desarrollados para permitir una supervisi贸n efectiva por parte de personas, con sus correspondientes interfaces. 

Total, que antes de que un sistema de IA de estos de alto riesgo pueda ser comercializado o utilizado, habr谩 que someterlo a una evaluaci贸n de conformidad. 

Este proceso demostrar谩 que el sistema cumple con los requisitos obligatorios establecidos por la Uni贸n Europea.

Adem谩s, siempre que haya cambios sustanciales en el sistema de IA, se deber谩 repetir la evaluaci贸n esta para asegurar que el sistema modificado todav铆a cumple con los est谩ndares requeridos.

Los sistemas de IA de riesgo alto que sean desplegados por autoridades p煤blicas o entidades que act煤en en su nombre deben estar registrados en una base de datos p煤blica de la UE. 

Sistemas de IA de riesgo limitado y riesgo m铆nimo

Estos sistemas s贸lo tendr铆an que cumplir con algunas cosillas de transparencia como por ejemplo si estamos usando un chatbot debe quedar claro que no estamos interactuando con una persona.

Por 煤ltimo, los sistemas de IA que suponen un riesgo m铆nimo o nulo ser铆a el modelo de toda la vida que filtra el SPAM de la bandeja de entrada.

Regulaci贸n europea de los modelos de prop贸sito general

Los sistemas de IA de prop贸sito general se identifican como los modelos grandes ya que el reglamento europeo clasifica a un modelo dentro de esta categor铆a cuando la cantidad de c谩lculos realizados durante su entrenamiento es elevada.

En particular, la ley europea de Inteligencia Artificial determina que si el entrenamiento emplea m谩s de 10 000 trillones de operaciones en punto flotante el modelo ser谩 clasificado como de prop贸sito general.

Adem谩s, habr谩 metodolog铆as para confirmar si se trata de un modelo de capacidades de alto impacto.

Digamos que se refieren a todos los GPT-4, Gemini, Llama, Mistral y dem谩s.

 Estos modelos, si no se demuestra lo contrario, ser谩n considerados de riesgo sist茅mico.

Implicaciones en la ley de IA para los modelos de prop贸sito general

Los modelos de prop贸sito general tendr谩n que implementar pol铆ticas que respeten los derechos de autor de la Uni贸n y publicar un resumen detallado sobre el contenido usado para el entrenamiento del modelo.

A no ser que sean modelos de c贸digo abierto y siempre y cuando se hagan p煤blicos los par谩metros del modelo y su arquitectura.

Hemos entrado en terreno pantanoso para poder usar GPT-4 o Gemini tal y c贸mo los conocemos鈥

Medidas en favor de la innovaci贸n en IA

La idea es fomentar un sandbox regulatorio de IA a nivel nacional, una especie de entorno controlado para facilitar el desarrollo, entrenamiento, prueba y validaci贸n de sistemas de IA innovadores antes de su comercializaci贸n, siguiendo un plan espec铆fico acordado con las autoridades competentes. 

Aqu铆, las autoridades supervisan y apoyan para identificar riesgos y medidas de mitigaci贸n, y ofrecen pruebas escritas de las actividades realizadas. 

Luego estos informes pueden usarse para demostrar el cumplimiento de la regulaci贸n.

Os dejo en las notas del programa el borrador del acta sobre Inteligencia Artificial de la Comisi贸n Europea, por si quer茅is echarle un vistazo.

Espero que el episodio de hoy os sea de provecho y que aprend谩is algo de valor. 

Si es as铆, no olvid茅is dejar una valoraci贸n de 5 estrellas del podcast en Apple podcasts, en Spotify, en Ivoox o donde quiera que escuch茅is el podcast. 

Recordad que si ten茅is cualquier duda o pregunta pod茅is contactar conmigo a trav茅s del formulario de contacto o podemos seguir la conversaci贸n en Twitter.

Muchas gracias por estar ah铆 y os espero en el pr贸ximo episodio de Un Podcast Ninja sobre Big Data.

Bolet铆n Ninja

Suscr铆bete a la newsletter y recibe la gu铆a ninja del Big Data y la Inteligencia Artificial.

Gu铆a ninja del Big Data
Copyright 漏 2024  路 Datos 馃シ 路 Todos los derechos reservados
馃捈 Aviso legal y cookies