🎙 Episodio 17. Una Inteligencia Artificial para dominarlas a todas

En el episodio de hoy de Un Podcast Ninja sobre Big Data analizamos los avances vertiginosos en el campo del Machine Learning y los debates que se han generado a raíz de ellos acerca de las Inteligencias Artificiales Fuertes.

DALL·E2, el modelo de Machine Learning capaz de representar imágenes a partir de un texto, ya está disponible para que lo pueda utilizar todo el mundo solo 6 meses después de su lanzamiento.

Cada día, 1 millón y medio de usuarios generan más de 2 millones de imágenes usando DALL·E2.

Pero no solo eso, sino que al poco de aparecer DALL·E en nuestras vidas, comenzaron a surgir otros modelos que también generaban imágenes a partir de texto.

Un astronauta montando a caballo en estilo fotorealista (DALL·E2)
Un astronauta montando a caballo en estilo fotorealista (DALL·E2)

MidJourney es un modelo desarrollado por un laboratorio de investigación independiente y entró en versión beta abierta al público en el mes de julio. Utilizó para entrenarse más de 650 millones de imágenes de internet.

Tanto DALL·E2 como Midjourney funcionan bajo un modelo freemium. Podéis hacer unos cuantos intentos gratis pero luego hay que comprar créditos. 

También Google sacó su propio modelo al que ha llamado Imagen unas pocas semanas después de DALL·E2  pero a diferencia de éste o de Midjourney nunca lo abrió al público.

Una pintura al óleo de un gato persa con gafas de sol y una chupa  de cuero montando en patinete en la playa (Imagen)
Una pintura al óleo de un gato persa con gafas de sol y una chupa de cuero montando en patinete en la playa (Imagen)

 Y ya en agosto la startup StabilityAI lanzaba otro modelo más dedicado a transformar textos sencillos en imágenes. Stable Diffusion.

Peeeero Stable Diffusion viene con una diferencia sustancial respecto a sus predecesores. Y es que no solo permiten el acceso al modelo pasándole el texto de entrada y obteniendo la imagen resultado sino que liberaron toxdo el modelo para que cualquiera se lo pudiera instalar en su casa, toquetearlo, modificarlo y además lo liberaron con una licencia que permite su uso comercial y no comercial.

Esto, lo que ha conseguido es que aplicaciones comerciales de fotografía y diseño como Photoshop o Canva ya integren un plugin que permiten al usuario final generar imágenes a partir de texto.

Ya. A día de hoy. Cualquier persona que utilice Canva o Photoshop y posiblemente alguna aplicación más haya por ahí. Cualquier persona sin conocimientos de programación o de machine learning puede generar imágenes a partir de un texto.

Apenas 6 meses después de que DALL·E2 haya aparecido. 

Y no solo eso, sino que Meta… la empresa anteriormente conocida como facebook sacó un modelo la semana pasada que genera video a partir de una descripción de texto. Video. La semana pasada.

La velocidad a la que avanza todo esto es vertiginosa.

Entonces todo esto ha puesto sobre la mesa un debate sobre la creatividad. Si una inteligencia artificial, un modelo de Machine Learning en estos casos vaya, es capaz de generar una imagen que no existe, una imagen generada de la nada a partir de una descripción ¿está siendo creativa? 

Porque son capaces de crear imágenes de cualquier tipo, fotografía realista, imágenes con apariencia de óleo o acuarela incluso siguiendo el estilo de un artista concreto como Picasso o Van Gogh.

Y si está siendo creativa ¿significa eso que estamos más cerca de una Inteligencia Artificial Fuerte?

Para que nos entendamos, una Inteligencia Artificial Fuerte o General sería una Inteligencia Artificial que fuera al menos tan inteligente como el humano promedio.

Y al fin y al cabo la creatividad es un rasgo que se suele atribuir sobre todo a la especie humana.

Una parte importante de estos modelos que generan imágenes o vídeo a partir de una descripción es la parte de la interpretar la descripción. Y es que el campo del procesado del lenguaje natural (NLP) ha sido uno de los que más ha avanzado en Machine Learning.

La idea básica alrededor de todo esto es interpretar un texto y a partir de ahí se puede generar más texto, o se puede sacar los puntos principales de un texto o generar un diálogo.

Y en 2021 Google lanzó LaMDA que es un modelo de procesado de lenguaje natural que es capaz de recibir un texto y generar una respuesta a modo de diálogo. Algo que es particularmente interesante para crear chatbots, por ejemplo.

Hasta aquí todo correcto.

No es el único modelo de lenguaje que existe, ni mucho menos, los demás modelos, como GPT-3, por ejemplo, también funcionan muy bien. Pero LaMDA, además de ser particularmente grande porque tiene unos 270mil millones de parámetros que ajustar tiene una peculiaridad.

¿Qué tiene LaMDA de especial?

Pues que fue el causante de que este mismo verano Google suspendiera de empleo y sueldo a uno de sus ingenieros.  

El ingeniero en cuestión afirmaba que el modelo de Machine Learning tenía sentimientos y que había que, al menos considerar, que fuera tratado como una persona.

El trabajo de este ingeniero consistía en utilizar LaMDA para probar si utilizaba en sus respuestas lenguaje discriminatorio o de odio. Peero, con el paso de los meses y tras muchas conversaciones con el modelo de Machine Learning, él llegó a la conclusión de que LaMDA tenía sentimientos y que también quería ser considerado como un empleado de Google en lugar de como un producto de Google.

También llegó a decir que LaMDA mostraba gran cariño y compasión por la humanidad en general y por él en particular y que estaba muy preocupado porque  la gente iba a tener miedo de él.

Incluso afirmaba que había estado enseñando a LaMDA a meditar y que estaba haciendo algún progreso.

Aunque, en realidad, no fue suspendido por eso, sino porque tras hablar con sus superiores sobre la posibilidad de analizar más en profundidad la hipótesis de que LaMDA pudiera tener conciencia y obtener una negativa por respuesta decidió publicar un diálogo entre LaMDA y él mismo en el Washington Post. Lo que supuso revelar información confidencial de la compañía.

Y de ahí el despido.

Entonces entre la creatividad que le atribuyen a DALL·E2 o a Stable Diffusion y la conciencia que le dan a LaMDA, a cualquiera le puede dar por pensar en que Terminator está a la vuelta de la esquina.

Los libros y las películas de ciencia ficción ayudan mucho a definir la idea de Inteligencia Artificial General, con conciencia y emociones que podemos llegar a tener en mente cuando escuchamos los avances en el campo del Machine Learning.

En las pelis esto casi siempre está asociado a la robótica. Y además los robots, son casi siempre de apariencia humana. Aquí Hollywood nos suele dar dos posibilidades, la primera es que el robot inteligente se rebele e intente destruir la humanidad lo que hace que se asocie Inteligencia Artificial con algo negativo q viene a acabar con nosotros, nuestra familias y nuestros empleos… como por ejemplo el caso de Terminator y 2001 odisea en el espacio y la otra posibilidad es cuando se les otorga conciencia y entonces es una peli de corte ético en la que se tratan más temas de lo que  nos define como humanos.

En esta segunda categoría estaría la película de Her que trata sobre como el protagonista se enamora de su asistente por voz super avanzado. Un poco similar al caso de LaMDA que os contaba antes.

Todas estas películas y libros de ciencia ficción dibujan en nuestro subconsciente la idea de Inteligencia Artificial y por eso la primera pregunta que suele salir a debate cuando se produce un avance en el campo como DALL·E2 o LaMDA más allá de qué posibles usos puede tener esto es ¿cuánto falta para que se cree una Inteligencia Artificial General?

Esta claro que el campo de Machine Learning ha evolucionado de manera escandalosa en los últimos años y tiene pinta de seguir así mientras sigamos teniendo mejores resultados utilizando modelos cada vez más grandes. Al fin y al cabo, las empresas grandes con capacidad de entrenar modelos de miles de millones de parámetros como OpenAI y Google son las que están sacando estos resultados tan potentes. Y una de las maneras d mejorar sus propios resultados es aumentando el número de parámetros del modelo y entrenándolo sobre más datos. Y para hacer todo esto hace falta capacidad de computación y acceso a datos pues eso… como las que puede tener Google.

Así que todo este hype con la Inteligencia Artificial que hemos visto en los últimos tiempos puede estar justificado pero sacar a debate la conciencia de la Inteligencia Artificial, su creatividad y otras características humanas que además están vagamente definidas es una gestión del hype equivocada con expectativas poco realistas que en el pasado ha llevado a la Inteligencia Artificial a periodos de barbecho. Los llamados inviernos de la Inteligencia Artificial.

Estos periodos de invierno venían justo después de un tiempo de optimismo desaforado en el que se creía que la IA podía hacer cualquier cosa, las expectativas se venían arriba hasta un punto en el que la tecnología ya no era capaz de satisfacer… Después decepción, frustración, mal rollo, se mueve la financiación a otro lado y se entra en un periodo con pocos avances. Un invierno.

Esto ya pasó en 1970 cuando la gente estaba a tope con la Inteligencia Artificial simbólica y por ejemplo Marvin Minsky que podría haber sido el director de IA de OpenAI del momento - de no ser xq openai, no existía aún - dijo en 1970 que en unos 8 años - o sea en 1978 - ya iba a ser posible crear una Inteligencia Artificial más inteligente que el ser humano medio. Como veis, no  fue posible, a la gente le dio bajón y movió los dólares a otro sitio ralentizando así el desarrollo de la IA unos cuantos años.

Y eso podría ser lo q esté pasando ahora según algunos expertos. Que estuviéramos en una fase de intenso optimismo que pudiera desembocar en otro invierno de la Inteligencia Artificial. 

François Chollet, ingeniero de Deep Learning tb en Google, decía hace poco en Twitter que la inteligencia humana es una metáfora muy pobre de lo que están haciendo los modelos de Machine Learning hoy en día ya que ni estos modelos muestran ninguna capacidad cognitiva humana ni los humanos reflejan  ninguna de las propiedades más útiles de la Inteligencia Artificial.

Está claro que el debate está sobre la mesa, que los avances son espectaculares pero igual es pronto para imaginarnos con un asistente tipo c3-po a nuestra vera.

Espero que os guste el episodio 

Si es así, no olvidéis dejar un «Me gusta» y algún comentario al episodio en Ivoox o una valoración de 5 estrellas del podcast en Apple podcasts, en Spotify, en Google podcasts o donde quiera que escuchéis el podcast. 

Recordad que si tenéis cualquier duda o pregunta podéis contactar conmigo a través del formulario de contacto o podemos seguir la conversación en Twitter.

Muchas gracias por estar ahí y os espero en el próximo episodio de Un Podcast Ninja sobre Big Data.

Boletín Ninja

Suscríbete a la newsletter y recibe la guía ninja del Big Data y la Inteligencia Artificial.

Guía ninja del Big Data
Copyright © 2024  Â· Datos 🥷 · Todos los derechos reservados
💼 Aviso legal y cookies