En el episodio de hoy de Un podcast ninja sobre Big Data hablamos de regular la Inteligencia Artificial, de modelos abiertos y de quién opina qué en todo este melón 🍈
A principios de febrero se aprobó el borrador Europeo para regular la Inteligencia Artificial.
Es una regulación en la que se lleva trabajando desde 2021 pero desde que apareció ChatGPT y la Inteligencia Artificial se ha hecho tan mainstream se ha pisado el acelerador.
Hay que proteger al ciudadano de los usos malvados de la IA.
Y eso está bien.
Hay mucho debate alrededor de la excesiva regulación de la Inteligencia Artificial.
Hay quién dice que tener una regulación a nivel europeo podría poner a los países de la Unión en una situación de desventaja competitiva frente a otros países con una regulación menos estricta o directamente sin regulación.
Hay quiénes van más allá y afirman directamente que “Estados Unidos inventa, China copia y Europa regula”.
Tradicionalmente se le ha dado mucho bombo a esto de la regulación de la IA en europa pero Sam Altman, CEO de OpenAI, se dedicó el año pasado a irse de gira mundial en favor de la regulación para protegernos de la Inteligencia Artificial.
Durante los meses de mayo y junio de 2023 estuvo reuniéndose con inversores, estudiantes y líderes defendiendo una Inteligencia Artificial más segura.
La idea es que los gobiernos colaboren con empresas como OpenAI para establecer los límites de la Inteligencia Artificial y reducir sus posibles riesgos.
En un testimonio escrito que presentó ante un subcomité del Senado de los Estados Unidos, Altman propuso que el país podría implementar un sistema de licencias y registro para los modelos de IA que superen un cierto nivel de capacidades.
Así, al necesitar de la aprobación gubernamental se ayudaría a disminuir preocupaciones de seguridad.
Entonces, si incluso las propias empresas como OpenAI dedicadas a la innovación en Inteligencia Artificial defienden la necesidad de esta regulación pues ya estaría, fin del episodio.
Pero no. Hay más.
De hecho hay como dos ejes…
Por un lado tenemos la Alianza de la Inteligencia Artificial liderada por Meta e IBM pero que cuenta con más de 50 miembros fundadores y colaboradores entre quiénes están AMD, Dell, IBM, Intel, Oracle, la NASA...
Gente potente.
Con la misión de colaborar para avanzar hacia una Inteligencia Artificial abierta, segura y responsable.
¿Y quiénes no están ahí?
Pues grandes players como Apple, Amazon, Google, Microsoft, Anthropic y OpenAI.
De hecho los 4 últimos (Google, Microsoft, Anthropic y OpenAI) han montado su propia organización para promover la Inteligencia Artificial responsable.
La idea también es avanzar hacia una investigación en Inteligencia Artificial, identificando las mejores prácticas y colaborando con los organismos de regulación y otras empresas para compartir su conocimiento sobre potenciales riesgos de seguridad.
Dos organizaciones que no comparten ningún miembro para hacer la misma cosa, desarrollar una IA segura y responsable.
Igual se llevan mal.
Pero tiene más pinta de que sus posturas ante la regulación de la IA no son compartidas porque no son otra cosa que un reflejo de sus intereses comerciales.
Como os he dicho antes, Sam Altman se recorrió el mundo defendiendo la regulación de la Inteligencia Artificial, aunque no siempre ha sido ese su discurso.
Una regulación que impusiera a modelos de ciertas capacidades la necesidad de una aprobación oficial necesitaría pasar por un proceso de pruebas costoso, aumentaría la burocracia y los informes y es posible que hiciera falta incluso una serie de requisitos para obtener licencias.
¿Esto a quién le supondría una barrera de entrada muy grande a esta carrera de la Inteligencia Artificial?
Pues a empresas pequeñas que no fueran capaces de hacer frente a tooodos los procesos necesarios para conseguir los permisos para comercializar su modelo de Inteligencia Artificial y especialmente al código abierto.
El código abierto es software cuyo código fuente es accesible para cualquier persona.
En el caso de los modelos de Inteligencia Artificial libres son los propios coeficientes de los modelos los que están disponibles para cualquiera.
Esto permite que otros puedan ver, modificar y distribuir el código según lo necesiten y además facilita la colaboración y el intercambio de conocimientos entre desarrolladores, promoviendo la mejora y la innovación del software.
¿Suena bien, verdad?
Lo que pasa es que el código abierto, al nutrirse de aportaciones de cualquiera que quiera colaborar es impredecible, evoluciona rápido y además, es gratis.
Suele quedarse con una buena porción del mercado frente a las grandes empresas.
Al imponer regulaciones como las propuestas por Sam Altman con licencias y procesos de pruebas eternos y costosos se podría limitar o reprimir el desarrollo de modelos abiertos.
Para empresas como OpenAI y Microsoft, que ha invertido mucho en posicionarse en el campo de la Inteligencia artificial, o para Google, que suficiente tiene con intentar hacer llegar sus logros al público general sin liarla, podría suponer una estrategia de "control de daños preventivo”.
Ellos también tendrían que pasar por el proceso de obtener licencias, pruebas y procesos de verificación peeeero la idea de invertir algunos millones en hacerlo es un precio menor si, como resultado, logran mantener la industria de la IA más estable y predecible, concentrando la influencia en empresas que se mueven de manera más lenta y controlada.
Luego tenemos a Amazon y Apple. Que no se han posicionado mucho.
Más allá de que Amazon haya invertido en Anthropic, que sí que está en el eje pro-regulatorio de OpenAI, Google y Microsoft, ambas han mantenido un perfil bajo.
Amazon no siente que su negocio esté amenazado por los modelos fundacionales de IA y, a su vez, no es percibido como amenaza por otros.
Está de chill.
Trabajando en sus cositas de IA, que las tiene, sin la presión de la opinión pública.
Apple, por otro lado, tampoco parece preocuparse por este tipo de debates.
Ha liberado recientemente una librería de Machine Learning, diseñada específicamente para el hardware de Apple y poca cosa más.
La cuestión es que tanto Amazon como Apple pueden permitirse mantenerse al margen de estos debates ya que disponen de los recursos para adaptarse y avanzar sin importar cómo evolucione el asunto.
Luego tenemos la otra posición, la de Meta al frente de la alianza de la Inteligencia Artificial.
Meta ve el código abierto y los grandes modelos de inteligencia artificial (IA) como oportunidades en lugar de amenazas.
Para Meta, el código abierto es particularmente valioso porque les permite aprovechar las contribuciones de la comunidad para avanzar en su investigación y desarrollo sin incurrir en todos los costes asociados.
Esencialmente, pueden utilizar innovaciones desarrolladas libremente por otros, integrarlas en sus productos y mejorar su oferta.
Al fin y al cabo su negocio no está en la Inteligencia Artificial y tampoco les supone una amenaza.
La inversión en código abierto, aunque no sea pequeña, es vista como una inversión rentable por los beneficios que aporta, y además mejora la imagen de Meta, que tradicionalmente no ha sido muy buena.
De hecho, las negociaciones sobre la regulación europea en Inteligencia Artificial estuvieron pendientes de un hilo hasta que Francia, Alemania e Italia consiguieron relajar las restricciones sobre los modelos fundacionales de código abierto.
Estos países no querían que unas restricciones demasiado estrictas pudieran perjudicar a empresas locales como Mistral en Francia, que ya ha sacado modelos que le plantan cara a los de OpenAI, o Aleph Alpha en Alemania.
Finalmente consiguieron proponer un marco regulatorio que fomentara la innovación y la competencia, sugiriendo la autorregulación a través de compromisos y códigos de conducta de las empresas.
Aunque bueno, Mistral AI ya se ha encargado de conseguir un acuerdo con Microsoft parecido al que en su momento firmaron Microsoft y OpenAI.
Hasta ahora los modelos de Mistral AI han sido abiertos pero veremos si el acuerdo con Microsoft hace que esta compañía explore otras oportunidades comerciales y toma el camino que ha seguido OpenAI.
Para empezar, el primer modelo que ha sacado, y que es parecido a GPT-4, ya no es abierto.
Eso por un lado…
Por otro, vamos a ver las posturas de algunos países.
Tenemos como tres grandes ejes.
Están los países que no pretenden introducir nueva regulación específica para todo esto de la Inteligencia Artificial sino que dicen… “oye, con lo que ya tenemos, pues vale”
Entre los países con esta postura tenemos a Reino Unido, India, Japón.
Con está postura regulatoria pro-innovación el Reino Unido ha establecido unas recomendaciones de buenas prácticas y ha creado una unidad enfocada en ver si los modelos más avanzados representan algún riesgo o no.
De hecho, Reino Unido tiene un acuerdo especial con Google DeepMind, Anthropic y OpenAI para obtener acceso anticipado a sus modelos más avanzados, con el objetivo comprender mejor los posibles riesgos.
Luego tenemos los que sí pretenden introducir un marco legislativo específico para la Inteligencia Artificial, con Europa a la cabeza, China o Corea del Sur.
Europa tiene recién aprobado el borrador del Acta de IA en el que hay definidos distintos niveles de riesgos.
Según el riesgo que se le asigna a un modelo tiene que cumplir unos requisitos determinados.
Por otro lado, China ha implementado legislación específica sobre sistemas de recomendación y regulaciones de IA generativa.
Además, los desarrolladores deben registrar sus modelos con el gobierno, y aquellos algoritmos considerados capaces de influir en la opinión pública deben pasar por una "evaluación de seguridad" especial.
Este es el lado más heavy en cuanto a países pro-regulación porque además prohiben servicios específicos como ChatGPT.
Países como Estados Unidos, Australia o Canadá estarían entre medias de una postura como la británica, más en la línea de compromisos voluntarios por parte de las empresas y buenas prácticas y la europea.
Sin embargo, varios estados en EE. UU. están avanzando con sus propias leyes de IA, que varían en términos de rigor.
Por ejemplo, existen leyes de transparencia obligatorias en California, Colorado, Texas, Virginia, y otros estados, enfocadas decisiones automatizadas.
Nueva York e Illinois han implementado leyes específicas relacionadas con el uso de IA en decisiones de contratación.
Por su parte, Canadá, quiere implementar una versión simplificada del Acta de IA de la UE, prohibiendo ciertas aplicaciones de IA y regulando otras.
Finalmente están los países que directamente prohíben algunos servicios como ChatGPT aunque no tengan una estrategia regulatoria clara, como Cuba o Rusia.
Espero que el episodio de hoy os sea de provecho y que aprendáis algo de valor.
Si es así, no olvidéis dejar una valoración de 5 estrellas del podcast en Apple podcasts, en Spotify, en Ivoox o donde quiera que escuchéis el podcast.
Recordad que si tenéis cualquier duda o pregunta podéis contactar conmigo a través del formulario de contacto o podemos seguir la conversación en Twitter.
Muchas gracias por estar ahí y os espero en el próximo episodio de Un Podcast Ninja sobre Big Data.