🎙️ Episodio 87. Cajas negras

En el episodio de hoy hablamos de la transparencia en los modelos de Machine Learning y la importancia de elegir transparencia frente a rendimiento y potencia en algunos casos de uso reales.

En los años 90, la neumonía era una causa importante de muerte en EE. UU.

Un proyecto en la Universidad Carnegie Mellon desarrolló una red neuronal capaz de predecir complicaciones en pacientes con neumonía con alta precisión, superando otros métodos.

Sin embargo, decidieron no usarla con pacientes reales.

¿Por qué?

Durante el desarrollo, otro modelo basado en reglas de decisión reveló una anomalía: consideraba a los pacientes asmáticos como de bajo riesgo, lo que resultó ser incorrecto y peligroso.

Los médicos, al tratar de explicar este comportamiento, notaron que el modelo había aprendido de los datos que los pacientes asmáticos con neumonía eran ingresados rápidamente, recibiendo atención especial y reduciendo así la mortalidad.

Este ejemplo ilustra la importancia de la transparencia y explicabilidad en modelos de IA.

Cajas negras y transparencia

Posiblemente la red neuronal también había aprendido ese patrón de los datos.

Y aunque este patrón en concreto podría haberse corregido una vez detectado, era bastante posible que existieran otros patrones en los datos de entrenamiento igual de peligrosos que el sistema basado en reglas no había aprendido porque es mucho más simple y no tan potente pero que la red neuronal sí. 

De hecho, la red neuronal había sacado tanta ventaja al resto de soluciones en capacidad de predicción, porque les una solución mucho más potentes y precisas.

Peeero también es mucho menos transparentes.

Entonces, por muy buenos resultados que den hay casos en los que no pueden utilizarse, o al menos, no a lo loco. 

Casos de uso en medicina, o en justicia, por ejemplo imaginad una red neuronal que decide si a un preso hay que darle la libertad condicional o no pero no hay manera fácil de saber en qué se está basando para tomar la decisión.

El Por Qué de una predicción

La RGPD, que lleva en vigor desde 2018, ya habla de esto en su artículo 22. Este artículo regula las decisiones automatizadas que afectan a las personas de forma legal o significativa y dice que hay que dar "información significativa sobre la lógica involucrada" en estas decisiones. Pero, ojo, no es que aclare mucho más, no especifica qué se entiende por "información significativa" ni da mucho contexto. Ahí queda la cosa.

Modelos de IA transparentes

Muchas veces los modelos más potentes pero que son cajas negras están incluso vetados y no es que ni siquiera se pueden usar y hay que optar por modelos transparentes.

Hay varios tipos de modelos transparentes, cada uno con características y niveles de interpretabilidad distintos:

Regresión Lineal

Este modelo predice un resultado como una combinación lineal de las características de entrada, asignando a cada característica un coeficiente que muestra su influencia en la predicción.

La ventaja principal de la regresión lineal es su transparencia: puedes ver claramente cómo cada característica afecta el resultado.

Si un coeficiente es grande, significa que esa característica tiene un impacto significativo en la predicción.

Sin embargo, este modelo solo captura relaciones lineales y puede resultar confuso si las características están correlacionadas entre sí.

Hablamos de la regresión lineal en el episodio 22 y en el episodio 80.

Y también tienes un tutorial para implementar una regresión lineal en python.

Regresión Logística

Similar a la regresión lineal, la regresión logística se usa para problemas de clasificación.

Toma la combinación lineal de las características y la pasa por una función que genera un valor entre 0 y 1, interpretado como una probabilidad.

Este modelo es también transparente y muestra cómo las características influyen en la probabilidad de una clase específica.

Sin embargo, comparte las limitaciones de la regresión lineal: no modela relaciones no lineales y puede complicarse cuando hay correlación entre las características.

Hablamos de la regresión logística en el episodio 80.

Y también tienes un tutorial para implementar una regresión logística en python.

Árboles de Decisión

Los árboles de decisión utilizan una estructura en forma de árbol para dividir los datos y tomar decisiones.

Cada nodo representa una característica, y cada rama una posible decisión basada en esa característica.

Las hojas contienen las predicciones finales.

Este modelo es muy intuitivo y fácil de entender, ya que puedes seguir el camino desde la raíz hasta una hoja para ver cómo se llegó a una decisión.

Además, a diferencia de las regresiones, pueden manejar relaciones no lineales.

No obstante, si no se controlan, los árboles pueden volverse demasiado complejos y propensos al sobreajuste.

Modelos Basados en Reglas de Decisión

Estos modelos consisten en un conjunto de reglas que se aplican de manera independiente para tomar decisiones.

Por ejemplo, podrían usar reglas como "si el paciente tiene fiebre, realizar esta prueba."

Son transparentes porque las reglas son claras y fáciles de entender, permitiendo saber exactamente cómo el modelo llega a una predicción.

Por otro lado, las redes neuronales, aunque más precisas, funcionan como "cajas negras", lo que dificulta comprender cómo toman decisiones.

Esto plantea un dilema sobre el uso de modelos complejos en áreas críticas como la medicina y la justicia, donde la interpretabilidad y el entendimiento de las decisiones son fundamentales.

Explicabilidad

Entonces, ¿qué hacemos con los modelos de IA que no son inherentemente transparentes? ¿Los tiramos a la basura? Pues no, porque aquí entra en juego la explicabilidad. La explicabilidad es la capacidad de un modelo, ya sea transparente o una "caja negra" como las redes neuronales, para proporcionar información que nos permita entender por qué y cómo llegó a una decisión o predicción específica.

Lo bueno de la explicabilidad es que no necesitamos comprender completamente el funcionamiento interno del modelo. Lo importante es que podamos explicar sus decisiones de manera comprensible. Así que, aunque la red neuronal sea una caja negra y no podamos ver fácilmente cómo funciona por dentro, podemos utilizar métodos de explicabilidad para entender y comunicar de forma más clara cómo tomó una decisión.

Transparencia vs. Explicabilidad

Para dejarlo claro, la transparencia implica un modelo cuya estructura y funcionamiento son inherentemente comprensibles. Es decir, puedes seguir cada paso y ver cómo se llega a una predicción. En cambio, la explicabilidad se enfoca en proporcionar una comprensión de las decisiones del modelo, incluso si el modelo en sí es complejo. Un modelo puede no ser transparente, como una red neuronal, pero aún puede ser explicable si utilizamos las herramientas adecuadas para entender cómo llegó a una decisión.

Por cierto, si os pica la curiosidad y queréis aprender más sobre métodos de explicabilidad, podéis echar un vistazo al Capítulo 9 de la Guía de Estudio de ML en Google Cloud.

Espero que os guste el episodio.

Si es así, no olvidéis dejar un «Me gusta» y algún comentario al episodio en Ivoox o una valoración de 5 estrellas del podcast en Apple podcasts, en Spotify, en Youtube o donde quiera que escuchéis el podcast. 

Recordad que si tenéis cualquier duda o pregunta podéis contactar conmigo a través del formulario de contacto o podemos seguir la conversación en Twitter.

Muchas gracias por estar ahí y os espero en el próximo episodio de Un Podcast Ninja sobre Big Data.

Accede a todo el contenido premium

Ya no necesitas pagar cientos de euros por un Bootcamp para convertirte en ninja de los datos. Por solo 17€/mes (o menos 🤯), obtén acceso al podcast premium, a todos los tutoriales y a los resúmenes de los libros más top sobre Machine Learning y Ciencia de datos y aprende a tu ritmo.
¡Empieza ahora!
Copyright © 2024  · Datos 🥷 · Todos los derechos reservados