En el episodio de hoy de Un podcast ninja sobre Big Data hablamos de algunos mitos sobre la IA ¿hay algo de verdad en ellos?
Está siendo muy mediático lo de que puedas chatear con ChatGPT y hacerle preguntas sobre los misterios del universo y eso.
Y sí, es verdad que hay modelos de Inteligencia Artificial que superan el rendimiento humano en tareas que cada vez son más complejas.
Precisamente generar respuestas, resumir textos o todas estas cosas que tienen relación con el lenguaje son algunas de estas tareas.
También estamos viendo la que se ha liado con la generación de imágenes a partir de texto y si eso es o no es arte.
Y es cuestión de tiempo que pase lo mismo con composiciones musicales y videos con una pinta un poco más profesional que los resultados de make-a-video de Meta.
El caso es que hasta el momento estas tareas son muy específicas y concretas.
Es decir, estos modelos son muy buenos en hacer sólo una cosa y en realidad, no es que estén creando una réplica de las vistas desde mi salón al estilo de Van Gogh porque tengan una predilección especial por el postimpresionismo.
Están reconociendo patrones y proyectando esos patrones en los resultados que generan siguiendo las instrucciones del texto de entrada. Texto que le ha proporcionado el usuario humano.
Además el modelo que genera una imagen, como podría ser DALL·E, no es capaz de tener una conversación como la que podríais tener con ChatGPT.
Cada modelo hace solo una cosa muy bien. No son generalistas cómo lo podemos ser nosotros.
Y aunque las investigaciones de las grandes empresas están muy enfocadas en conseguir modelos multimodales, o sea, que sean capaces de hacer más de una cosa, los resultados de momento están muy lejos de Terminator.
De hecho, hay bastantes investigadores que ni siquiera creen que el camino esté en el aprendizaje profundo que es por donde se han hecho los avances más significativos en la última década y de donde salen ChatGPT y DALL·E2.
Sin embargo, no deja de ser un debate interesante porque nos lleva a plantearnos qué son en realidad la creatividad y la inteligencia.
Aquí podemos decir que hay parte de mito y parte de realidad.
Es verdad que hay sistemas basados en Inteligencia Artificial que son sencillos y fáciles de explicar pero también es verdad que los sistemas basados en Deep Learning, por ejemplo, son como una caja negra. Son sistemas muy complejos.
Sin embargo, y justo debido a esto, hay un campo muy activo de la investigación que aborda nuevos métodos y técnicas para hacer de los modelos de IA, modelos explicables.
De esta manera, podremos comprender el por qué de las predicciones y resultados que obtiene un modelo de Machine Learning.
Gracias a este tipo de métodos es posible detectar cuando un modelo de Machine Learning aprende “trucos” para optimizar su objetivo.
Por ejemplo, si os ponéis a entrenar un modelo de Machine Learning que diferencia imágenes de lobos salvajes de otras de perros nórdicos tipo husky y no ponéis cuidado en las imágenes de entrenamiento puede ser que el modelo aprenda a distinguir un animal de otro no por las características del animal en sí sino porque en las fotos de huskys, los perros están en jardines y en las imágenes de lobos siberianos pues suelen salir en bosques nevados.
Ahí el modelo de Machine Learning estaría haciendo trampas para conseguir su objetivo.
Gracias a estas técnicas para hacer los modelos explicables se podría resaltar qué parte de las imágenes están haciendo a un modelo de Machine Learning decidir si esa imagen es un lobo o un perro.
Si resulta que destaca el fondo antes que alguna parte del animal es que ahí hay algo que no está funcionando bien.
Una vez identificadas las “trampas” que hace el modelo gracias a estas técnicas se podría corregir y así hacerlo más robusto
Aquí de nuevo hay parte de cierto y parte de mito.
Hay que tener en cuenta que los datos son una parte muy importante del proceso de entrenamiento de un modelo de Machine Learning.
Generalmenete nos reportará mejores resultados recolectar más datos o pasar un poco más de tiempo desbrozando los que tenemos que usando un modelo más potente.
Sin embargo, hay más factores importantes a la hora de diseñar un modelo de Machine Learning además de los datos como son el propio modelo, el hardware sobre el que entrenamos el modelo e incluso el propio diseñador del modelo.
En el mundo real los datos no van a ser perfectos nunca.
La parte positiva es que casi siempre se puede aplicar alguna técnica para compensar estas cosas que les pasan a los datos del mundo real.
Y si no me creéis, fijaos en GPT-3, el modelo del lenguaje predecesor de chatGPT que se entrenó sobre un montón de textos de internet sin filtrar ni nada y en la diferencia con ChatGPT que utiliza el feedback de personas para seguir ajustando sus respuestas.
No deja de ser una manera de compensar la calidad de los datos que se utilizaron durante el entrenamiento.
Si queréis saber cómo funciona más en detalle chatGPT podís escuchar el episodio aquí.
El tema de los sesgos en modelos de Inteligencia Artificial es tradicionalmente peliagudo.
De hecho, la principal razón por la que una empresa como Google no libera los resultados de sus modelos tochos es que no pueden controlar estos sesgos que derivan en modelos que no son justos.
Sin embargo, no son los modelos de Machine Learning los que son injustos o introducen sesgos sino que son el simple resultado de decisiones humanas sobre:
Los modelos de Machine Learning no hacen más que detectar patrones presentes en los datos de entrenamiento que únicamente imitan para minimizar la función de coste que tienen que optimizar.
Al imitar estos comportamientos sesgados que han generado los datos de entrenamiento, el resultado puede no ser justo para ciertos grupos minoritarios.
Así que los modelos de Machine Learning no son en realidad injustos por naturaleza pero sí que es verdad que hay que tener bastante cuidado a la hora de diseñarlos y entrenarlos para minimizar la aparición de sesgos.
Especialmente en sistemas que luego se usan en la sociedad.
Por ejemplo, modelos de Machine Learning que ayudan a la preselección de candidatos en un proceso de RRHH o modelos de Machine Learning en sistemas policiales o de vigilancia.
La parte positiva es que poner esfuerzo en estos temas en el campo de la Inteligencia Artificial pueden incluso ayudarnos a identificar sesgos en la toma de decisiones que tal vez se habían pasado por alto cuando estas decisiones las tomaban personas.
Y luego tenemos el némesis de este mito sobre la IA que sería: pensar que una Inteligencia Artificial siempre va a tomar una mejor decisión que una persona porque ha sido entrenada sobre una cantidad de datos enorme.
El llamado sesgo de confianza excesiva en la tecnología.
Y para terminar el mito sobre la IA por excelencia. Nos vamos a quedar todos sin trabajo.
Ya da igual...
Hay un modelo de Machine Learning para todas esas cosas.
Y siempre que aparece un nuevo modelo de Machine Learning con buenos resultados hay un gremio que empieza a temblar.
Incluso Yuval Noah Harari, el autor de Sapiens, en su libro 21 lecciones para el siglo 21 escribe prácticamente un capítulo entero sobre cómo la Inteligencia Artificial va a destruir un montón de empleos.
Dice en el libro:
Los humanos tienen dos tipos de capacidades: la física y la cognitiva. En el pasado, las máquinas competían con los humanos principalmente en las capacidades físicas en bruto, mientras que estos tenían una enorme ventaja sobre las máquinas en cuanto a cognición. De ahí que cuando los trabajos manuales en la agricultura y la industria se automatizaron, aparecieron nuevos empleos de servicios que requerían capacidades cognitivas que solo los humanos poseían: aprender, analizar, comunicar y, por encima de todo, comprender las emociones humanas. Sin embargo, la IA está empezando ahora a superar a los humanos cada vez en más de estas capacidades, entre ellas la comprensión de las emociones humanas. No conocemos un tercer campo de actividad (más allá del físico y el cognitivo) en el que los humanos se hallen siempre en situación de ventaja.
Yuval Noah Harari, "21 lecciones para eel siglo 21"
Así, en principio, pinta mal.
Peeeero en realidad los humanos siempre hemos pensado que nos íbamos a quedar sin trabajo con cada invento tecnológico y aquí estamos, cada vez con menos tiempo libre.
Como decía antes los modelos de Machine Learning actuales hacen tareas específicas y muy acotadas mientras que en nuestro trabajo, las personas solemos realizar varias labores interrelacionadas.
Así que probablemente más que destruir empleo lo que haga sea asistir a las personas en un empleo determinado a realizar sus labores con mayor calidad y de manera más eficiente.
Seguramente haya más una tendencia a la transformación de puestos de trabajo más que a la destrucción.
Y lo que es seguro es que también se crearán nuevos tipos de empleos.
Yo, personalmente lo veo un poco parecido a cuando apareció Internet, hoy en día es muy limitante no saber manejarse en internet de la misma manera que hace 80 años la gente que no sabía leer ni escribir estaba también limitada.
Tal vez en 50 años no saber manejarnos con modelos de Machine Learning, aunque sea a nivel usuario, sea lo que nos limite.
Bueno, a nosotros no, que somos ninjas del Big Data y de la Inteligencia Artificial. Ya me entendéis.
Lo que está claro es que la necesidad de seguir aprendiendo de manera continua y adaptándonos va a ser una constante en el mundo laboral.
Y si queréis saber un poco más sobre todo esto de la Inteligencia Artificial y el empleo podéis escuchar el episodio 1 de este podcast.
Espero que os guste el episodio.
Si es así, no olvidéis dejar un «Me gusta» y algún comentario al episodio en Ivoox o una valoración de 5 estrellas del podcast en Apple podcasts, en Spotify, en Google podcasts o donde quiera que escuchéis el podcast.
Recordad que si tenéis cualquier duda o pregunta podéis contactar conmigo a través del formulario de contacto o podemos seguir la conversación en Twitter.
Muchas gracias por estar ahí y os espero en el próximo episodio de Un Podcast Ninja sobre Big Data.