馃帣 Episodio 26. Grandes 茅xitos de la Inteligencia Artificial [Edici贸n 2022]

En el episodio de hoy de Un podcast ninja sobre Big Data vamos a hablar sobre qu茅 ha pasado en el campo de la Inteligencia Artificial en estos 12 meses de 2022 y para ello vamos a repasar el informe sobre el Estado de la Inteligencia Artificial que muy amablemente publican cada a帽o desde hace 5 temporadas Ian Hogarth y Nathan Benaich.

Avances en investigaci贸n

El informe se public贸 en octubre, hace poco menos de 2 meses y ya se est谩 quedando un poco obsoleto porque obviamente no habla de la sensaci贸n del momento: ChatGPT.

ChatGPT

ChatGPT vio la luz la semana pasada y es un chatbot desarrollado por OpenAI capaz de mantener una conversaci贸n. 

El acceso a probarlo es libre y gratis (de momento)  y la gente se ha lanzado a preguntarle de todo, desde dudas existenciales hasta que interprete su 煤ltimo an谩lisis de sangre o que le resuelva un problema de programaci贸n.

Puedes pedirle que te explique cualquier cosa y si no te queda claro puedes seguir pidiendo todas las aclaraciones que quieras. Es como el t铆pico amigo que sabe de todo, de hecho hay gente que ya ve el futuro de las b煤squedas en internet en este tipo de modelos.

Uno de los apartados del informe sobre el estado de la inteligencia artificial enumera algunos de los avances m谩s notables en la investigaci贸n.

Modelos de arte generativo

Obviamente, los modelos de arte generativo como DALL路E o Stable Diffusion est谩n en el podio de honor por haber revolucionado el campo de la generaci贸n de im谩genes a partir de texto y que ya hemos mencionado en otros episodios del podcast como el episodio 1 y el episodio 19.

Para m铆, lo que es realmente impresionante de estos modelos para generar im谩genes a partir de un texto, no es el modelo en s铆 o sus resultados sino la velocidad con la que han pasado a poder ser utilizadas por cualquiera.

隆Estos modelos ya han sido integradas en editores fotogr谩ficos como Photoshop o Canva!

La rapidez con la que se ha pasado de un hito en la investigaci贸n por parte de alguna de las grandes empresas, en el caso de DALL路E la empresa es OpenAI, a que exista una implementaci贸n del mismo problema en c贸digo abierto disponible para cualquiera es alucinante. 

Para estos modelos el lapso de tiempo entre que se demuestra que es posible generar im谩genes a partir de texto con la primera versi贸n de DALL路E en enero de 2021 hasta que existe una versi贸n abierta disponible, Stable Diffusion en agosto de 2022, han pasado 煤nicamente poco m谩s de 15 meses.

Y m谩s all谩 de las im谩genes de alta calidad que se pueden obtener con DALL路E2 o Stable Diffusion, lo que vemos en estos resultados es la importancia que se ha dado en el campo de la investigaci贸n a los grandes modelos del lenguaje.

Grandes modelos del lenguaje: Minerva

Google ha refinado uno de sus modelos del lenguaje, concretamente PaLM, re-entren谩ndolo espec铆ficamente en art铆culos cient铆ficos para ser capaz de resolver y explicar problemas de instituto de diferentes materias como 谩lgebra, f铆sica, probabilidad, geometr铆a o biolog铆a. Aunque el rendimiento de Minerva, que es como se llama este modelo de Google, no es comparable con el de un ser humano, s铆 que supone una mejora muy importante respecto a los resultados que se esperaban.

Ha obtenido una precisi贸n media del 50.3%, un aprobado raspadito pero a su favor hay que decir que se esperaba una precisi贸n de s贸lo el 13%.

Pero los resultados de la investigaci贸n en modelos de Machine Learning no se ha quedado 煤nicamente en el entrenamiento de grandes modelos del lenguaje para generar im谩genes o explicar la soluci贸n a problemas de secundaria鈥

Avances de la Inteligencia Artificial en otros campos

DeepMind, otra de las empresas centrada en la investigaci贸n en el campo del aprendizaje autom谩tico tambi茅n ha estado ocupadilla publicando resultados prometedores en ciencia de materiales, matem谩ticas, f铆sica nuclear o en la predicci贸n de la estructura tridimensional de 200 millones de prote铆nas de plantas, animales y bacterias.

As铆, diversificando鈥

Avances en la industria farmac茅utica

Imaginad el potencial de utilizar los resultados obtenidos en la predicci贸n de las estructuras de las prote铆nas en 谩mbitos como la fabricaci贸n de medicamentos por ejemplo.

Relacionado con la medicina y la industria farmac茅utica, se han publicado resultados durante este a帽o sobre c贸mo tratar infecciones bacterianas a partir de agentes antibacterianos personalizados.

驴Y esto en qu茅 consiste?

Pues para que los m茅dicos sean capaces de dar con el antibi贸tico adecuado para curar una infecci贸n el Instituto Tecnol贸gico de Israel ha comparado el microbioma del tracto urinario de 200000 pacientes con infecciones que ya hab铆an sido tratados anteriormente con antibi贸ticos.

El objetivo del modelo de Machine Learning en este caso era predecir el riesgo de que al usar un tratamiento determinado se aumentara la resistencia de las bacterias al medicamento y por tanto creciera el riesgo de reinfecci贸n. 

Pero ojo porque no todo es color de rosa en las aplicaciones del Machine Learning en la investigaci贸n de f谩rmacos.

Adem谩s de los resultados sobre la estructura de las prote铆nas, o las investigaciones en la selecci贸n de medicamentos personalizados, investigadores del King鈥檚 College London y Collaborations Pharmaceuticals han descubierto otras cositas.

Ellos ya estaban aplicando modelos de Machine Learning basados en redes neuronales para descubrir nuevos compuestos que pudieran integrarse en f谩rmacos de manera que se maximizara el efecto positivo del compuesto minimizando la toxicidad.

Sin embargo, han comprobado que tambi茅n es posible hacerlo al rev茅s, utilizando el mismo modelo y ajustarlo de manera que se maximice la toxicidad.  Esto supondr铆a el descubrimiento de agentes qu铆micos muy t贸xicos podr铆an utilizarse en guerras qu铆micas.

Predicciones para 2023

Y ahora, llega el momento de sacar la bola de cristal porque los autores del informe se arriesgan a predecir qu茅 va a pasar en 2023 en cuanto a investigaci贸n:

  • Por un lado auguran que DeepMind entrenar谩 mediante aprendizaje por refuerzo un modelo tocho capaz de aprender de diversas fuentes de datos y para realizar varias tareas en lugar de ser entrenado para una 煤nica cosa.
  • Por otro lado tambi茅n predicen que se entrenar谩 un modelo del lenguaje utilizando 10 veces m谩s datos durante el entrenamiento y se demostrar谩 la teor铆a de que se obtienen mejores resultados utilizando m谩s datos durante el entrenamiento que dise帽ando modelos cada vez m谩s grandes.
  • Y para terminar las predicciones en el campo de la investigaci贸n, Nathan Benaich e Ian Hogarth creen que en los pr贸ximos 12 meses emerger谩n modelos generativos de audio parecidos a los que podemos utilizar a d铆a de hoy con las im谩genes pero con audio.

Espero que os guste el episodio.

Si es as铆, no olvid茅is dejar un 芦Me gusta禄 y alg煤n comentario al episodio en Ivoox o una valoraci贸n de 5 estrellas del podcast en Apple podcasts, en Spotify, en Google podcasts o donde quiera que escuch茅is el podcast. 

Recordad que si ten茅is cualquier duda o pregunta pod茅is contactar conmigo a trav茅s del formulario de contacto o podemos seguir la conversaci贸n en Twitter.

Muchas gracias por estar ah铆 y os espero en el pr贸ximo episodio de Un Podcast Ninja sobre Big Data.

Bolet铆n Ninja

Suscr铆bete a la newsletter y recibe la gu铆a ninja del Big Data y la Inteligencia Artificial.

Gu铆a ninja del Big Data
Copyright 漏 2023  路 Datos 馃シ 路 Todos los derechos reservados