En el episodio de hoy de Un podcast ninja sobre Big Data repasamos el borrador sobre la regulación de la Inteligencia Artificial en Europa (AI Act) ⚖️
El reglamento sobre Inteligencia Artificial europeo resumido en un podcast 😉
El objetivo del AI Act (regulación europea sobre la Inteligencia Artificial) es asegurar que los sistemas de Inteligencia Artificial a los que podamos acceder en el mercado europeo sean seguros y respeten los derechos fundamentales y valores de la Unión Europea.
Peeero también estimulando la inversión e innovación de la Inteligencia Artificial en Europa.
Veamos cómo se hace esto.
La idea es regular los sistemas de Inteligencia Artificial según la capacidad que tengan de causar daño a la sociedad.
Se definen varios niveles de riesgo.
Para empezar se prohibe el uso de sistemas de IA que empleen técnicas que distorsionen significativamente el comportamiento de una persona.
También está prohibido está prohibido categorizar a las personas en base a datos biométricos para averiguar cosas como su raza, sus opiniones políticas, o su orientación sexual, etc.
La Ley Europea de IA prohibe el uso de sistemas de Inteligencia Artificial para evaluar o clasificar a personas basándose en su comportamiento social.
Por supuesto, nada de identificación de personas en tiempo real en espacios públicos o usar la IA para evaluar el riesgo de que una persona cometa delitos basándose únicamente en su perfil o características de personalidad.
Todo esto sólo aplica para áreas sujetas a la legislación europea por lo que deja fuera todo lo que tenga que ver con cualquier cosa que tenga que ver con seguridad nacional de cada país o sistemas que se utilicen exclusivamente para defensa.
Además si los sistemas de IA son sólo para investigación o para ámbito no profesional, pues tampoco aplica.
Estos sistemas de IA son aquellos utilizados en contextos críticos que afectan significativamente los derechos fundamentales, la seguridad, la educación, el empleo, el acceso a servicios esenciales, la aplicación de la ley, la gestión de la migración, el asilo, el control fronterizo, la administración de justicia y los procesos democráticos.
Por ejemplo, sistemas de IA como componentes críticos gestionando el tráfico vial o los suministros de agua, gas, calefacción y electricidad, también de alto riesgo.
Otro ejemplo sería utilizar IA para automatizar procesos de selección a un puesto de trabajo o para evaluar la solvencia de una persona a la hora de aprobarle un crédito o para revisar de manera automática solicitudes de asilo o visado.
Todos esos son sistemas de IA de alto riesgo.
Estos sistemas tienen que cumplir una serie de requisitos:
Además de esto, los datos de entrenamiento de este tipo de modelos también tienen que cumplir una criterios de calidad específicos. Estos criterios buscan identificar y mitigar sesgos en los conjuntos de datos que puedan afectar negativamente la salud, la seguridad de las personas, impactar derechos fundamentales o conducir a discriminaciones.
Por supuesto, los datos deben ser gestionados y protegidos de acuerdo con las mejores prácticas de seguridad y privacidad y las decisiones de diseño, los procesos de recopilación de datos, las operaciones de preparación de datos y las medidas tomadas para detectar y corregir sesgos deben estar bien documentadas.
Documentación everywhere.
Porque será necesario preparar la documentación técnica de estos sistemas de IA antes de que se comercialice o se pongan en servicio, y obviamente debe mantenerse actualizada.
Además, los sistemas de IA de riesgo alto deben ser diseñados y desarrollados para permitir una supervisión efectiva por parte de personas, con sus correspondientes interfaces.
Total, que antes de que un sistema de IA de estos de alto riesgo pueda ser comercializado o utilizado, habrá que someterlo a una evaluación de conformidad.
Este proceso demostrará que el sistema cumple con los requisitos obligatorios establecidos por la Unión Europea.
Además, siempre que haya cambios sustanciales en el sistema de IA, se deberá repetir la evaluación esta para asegurar que el sistema modificado todavía cumple con los estándares requeridos.
Los sistemas de IA de riesgo alto que sean desplegados por autoridades públicas o entidades que actúen en su nombre deben estar registrados en una base de datos pública de la UE.
Estos sistemas sólo tendrían que cumplir con algunas cosillas de transparencia como por ejemplo si estamos usando un chatbot debe quedar claro que no estamos interactuando con una persona.
Por último, los sistemas de IA que suponen un riesgo mínimo o nulo sería el modelo de toda la vida que filtra el SPAM de la bandeja de entrada.
Los sistemas de IA de propósito general se identifican como los modelos grandes ya que el reglamento europeo clasifica a un modelo dentro de esta categoría cuando la cantidad de cálculos realizados durante su entrenamiento es elevada.
En particular, la ley europea de Inteligencia Artificial determina que si el entrenamiento emplea más de 10 000 trillones de operaciones en punto flotante el modelo será clasificado como de propósito general.
Además, habrá metodologías para confirmar si se trata de un modelo de capacidades de alto impacto.
Digamos que se refieren a todos los GPT-4, Gemini, Llama, Mistral y demás.
Estos modelos, si no se demuestra lo contrario, serán considerados de riesgo sistémico.
Los modelos de propósito general tendrán que implementar políticas que respeten los derechos de autor de la Unión y publicar un resumen detallado sobre el contenido usado para el entrenamiento del modelo.
A no ser que sean modelos de código abierto y siempre y cuando se hagan públicos los parámetros del modelo y su arquitectura.
Hemos entrado en terreno pantanoso para poder usar GPT-4 o Gemini tal y cómo los conocemos…
La idea es fomentar un sandbox regulatorio de IA a nivel nacional, una especie de entorno controlado para facilitar el desarrollo, entrenamiento, prueba y validación de sistemas de IA innovadores antes de su comercialización, siguiendo un plan específico acordado con las autoridades competentes.
Aquí, las autoridades supervisan y apoyan para identificar riesgos y medidas de mitigación, y ofrecen pruebas escritas de las actividades realizadas.
Luego estos informes pueden usarse para demostrar el cumplimiento de la regulación.
Os dejo en las notas del programa el borrador del acta sobre Inteligencia Artificial de la Comisión Europea, por si queréis echarle un vistazo.
Espero que el episodio de hoy os sea de provecho y que aprendáis algo de valor.
Si es así, no olvidéis dejar una valoración de 5 estrellas del podcast en Apple podcasts, en Spotify, en Ivoox o donde quiera que escuchéis el podcast.
Recordad que si tenéis cualquier duda o pregunta podéis contactar conmigo a través del formulario de contacto o podemos seguir la conversación en Twitter.
Muchas gracias por estar ahí y os espero en el próximo episodio de Un Podcast Ninja sobre Big Data.