🎙 Episodio 26. Grandes éxitos de la Inteligencia Artificial [Edición 2022]

En el episodio de hoy de Un podcast ninja sobre Big Data vamos a hablar sobre qué ha pasado en el campo de la Inteligencia Artificial en estos 12 meses de 2022 y para ello vamos a repasar el informe sobre el Estado de la Inteligencia Artificial que muy amablemente publican cada año desde hace 5 temporadas Ian Hogarth y Nathan Benaich.

Avances en investigación

El informe se publicó en octubre, hace poco menos de 2 meses y ya se está quedando un poco obsoleto porque obviamente no habla de la sensación del momento: ChatGPT.

ChatGPT

ChatGPT vio la luz la semana pasada y es un chatbot desarrollado por OpenAI capaz de mantener una conversación. 

El acceso a probarlo es libre y gratis (de momento)  y la gente se ha lanzado a preguntarle de todo, desde dudas existenciales hasta que interprete su último análisis de sangre o que le resuelva un problema de programación.

Puedes pedirle que te explique cualquier cosa y si no te queda claro puedes seguir pidiendo todas las aclaraciones que quieras. Es como el típico amigo que sabe de todo, de hecho hay gente que ya ve el futuro de las búsquedas en internet en este tipo de modelos.

Uno de los apartados del informe sobre el estado de la inteligencia artificial enumera algunos de los avances más notables en la investigación.

Modelos de arte generativo

Obviamente, los modelos de arte generativo como DALL·E o Stable Diffusion están en el podio de honor por haber revolucionado el campo de la generación de imágenes a partir de texto y que ya hemos mencionado en otros episodios del podcast como el episodio 1 y el episodio 19.

Para mí, lo que es realmente impresionante de estos modelos para generar imágenes a partir de un texto, no es el modelo en sí o sus resultados sino la velocidad con la que han pasado a poder ser utilizadas por cualquiera.

¡Estos modelos ya han sido integradas en editores fotográficos como Photoshop o Canva!

La rapidez con la que se ha pasado de un hito en la investigación por parte de alguna de las grandes empresas, en el caso de DALL·E la empresa es OpenAI, a que exista una implementación del mismo problema en código abierto disponible para cualquiera es alucinante. 

Para estos modelos el lapso de tiempo entre que se demuestra que es posible generar imágenes a partir de texto con la primera versión de DALL·E en enero de 2021 hasta que existe una versión abierta disponible, Stable Diffusion en agosto de 2022, han pasado únicamente poco más de 15 meses.

Y más allá de las imágenes de alta calidad que se pueden obtener con DALL·E2 o Stable Diffusion, lo que vemos en estos resultados es la importancia que se ha dado en el campo de la investigación a los grandes modelos del lenguaje.

Grandes modelos del lenguaje: Minerva

Google ha refinado uno de sus modelos del lenguaje, concretamente PaLM, re-entrenándolo específicamente en artículos científicos para ser capaz de resolver y explicar problemas de instituto de diferentes materias como álgebra, física, probabilidad, geometría o biología. Aunque el rendimiento de Minerva, que es como se llama este modelo de Google, no es comparable con el de un ser humano, sí que supone una mejora muy importante respecto a los resultados que se esperaban.

Ha obtenido una precisión media del 50.3%, un aprobado raspadito pero a su favor hay que decir que se esperaba una precisión de sólo el 13%.

Pero los resultados de la investigación en modelos de Machine Learning no se ha quedado únicamente en el entrenamiento de grandes modelos del lenguaje para generar imágenes o explicar la solución a problemas de secundaria…

Avances de la Inteligencia Artificial en otros campos

DeepMind, otra de las empresas centrada en la investigación en el campo del aprendizaje automático también ha estado ocupadilla publicando resultados prometedores en ciencia de materiales, matemáticas, física nuclear o en la predicción de la estructura tridimensional de 200 millones de proteínas de plantas, animales y bacterias.

Así, diversificando…

Avances en la industria farmacéutica

Imaginad el potencial de utilizar los resultados obtenidos en la predicción de las estructuras de las proteínas en ámbitos como la fabricación de medicamentos por ejemplo.

Relacionado con la medicina y la industria farmacéutica, se han publicado resultados durante este año sobre cómo tratar infecciones bacterianas a partir de agentes antibacterianos personalizados.

¿Y esto en qué consiste?

Pues para que los médicos sean capaces de dar con el antibiótico adecuado para curar una infección el Instituto Tecnológico de Israel ha comparado el microbioma del tracto urinario de 200000 pacientes con infecciones que ya habían sido tratados anteriormente con antibióticos.

El objetivo del modelo de Machine Learning en este caso era predecir el riesgo de que al usar un tratamiento determinado se aumentara la resistencia de las bacterias al medicamento y por tanto creciera el riesgo de reinfección. 

Pero ojo porque no todo es color de rosa en las aplicaciones del Machine Learning en la investigación de fármacos.

Además de los resultados sobre la estructura de las proteínas, o las investigaciones en la selección de medicamentos personalizados, investigadores del King’s College London y Collaborations Pharmaceuticals han descubierto otras cositas.

Ellos ya estaban aplicando modelos de Machine Learning basados en redes neuronales para descubrir nuevos compuestos que pudieran integrarse en fármacos de manera que se maximizara el efecto positivo del compuesto minimizando la toxicidad.

Sin embargo, han comprobado que también es posible hacerlo al revés, utilizando el mismo modelo y ajustarlo de manera que se maximice la toxicidad.  Esto supondría el descubrimiento de agentes químicos muy tóxicos podrían utilizarse en guerras químicas.

Predicciones para 2023

Y ahora, llega el momento de sacar la bola de cristal porque los autores del informe se arriesgan a predecir qué va a pasar en 2023 en cuanto a investigación:

  • Por un lado auguran que DeepMind entrenará mediante aprendizaje por refuerzo un modelo tocho capaz de aprender de diversas fuentes de datos y para realizar varias tareas en lugar de ser entrenado para una única cosa.
  • Por otro lado también predicen que se entrenará un modelo del lenguaje utilizando 10 veces más datos durante el entrenamiento y se demostrará la teoría de que se obtienen mejores resultados utilizando más datos durante el entrenamiento que diseñando modelos cada vez más grandes.
  • Y para terminar las predicciones en el campo de la investigación, Nathan Benaich e Ian Hogarth creen que en los próximos 12 meses emergerán modelos generativos de audio parecidos a los que podemos utilizar a día de hoy con las imágenes pero con audio.

Espero que os guste el episodio.

Si es así, no olvidéis dejar un «Me gusta» y algún comentario al episodio en Ivoox o una valoración de 5 estrellas del podcast en Apple podcasts, en Spotify, en Google podcasts o donde quiera que escuchéis el podcast. 

Recordad que si tenéis cualquier duda o pregunta podéis contactar conmigo a través del formulario de contacto o podemos seguir la conversación en Twitter.

Muchas gracias por estar ahí y os espero en el próximo episodio de Un Podcast Ninja sobre Big Data.

Accede a todo el contenido premium

Ya no necesitas pagar cientos de euros por un Bootcamp para convertirte en ninja de los datos. Por solo 17€/mes (o menos 🤯), obtén acceso al podcast premium, a todos los tutoriales y a los resúmenes de los libros más top sobre Machine Learning y Ciencia de datos y aprende a tu ritmo.
¡Empieza ahora!
Copyright © 2024  · Datos 🥷 · Todos los derechos reservados