La importancia de la interpretabilidad de los modelos de Data Science
En algunas ocasiones la no interpretabilidad del funcionamiento de algunos algoritmos de Data Science limita su usabilidad en algunos ámbitos. Por ejemplo, en banca no deben utilizarse algoritmos para el análisis de la concesión de créditos que no permitan explicar claramente al cliente el motivo de la denegación de un crédito y qué variables económicas tendría que mejorar para poder acceder al préstamo solicitado. La finalidad de este proceso es clara, que los ciudadanos obtengamos indicaciones sobre cómo deberíamos mejorar nuestra “salud financiera”.
Pero aunque dicha exigencia es positiva para los clientes, no lo es tanto para las entidades que conceden créditos ya que limita el abanico de algoritmos que Data Science proporciona, a únicamente aquellos que sean muy fácilmente interpretables como una regresión lineal, una regresión logística o un árbol de decisión, por ejemplo. El problema de esta limitación es que impide que se utilicen los algoritmos que ofrecen mejores resultados, como por ejemplo redes neuronales, ya que lo que habitualmente sucede es que a mayor precisión del modelo menor interpretabilidad, como se muestra en el siguiente gráfico.
En línea con el ejemplo que comentábamos al principio, la importancia de la interpretabilidad es que en algunos problemas no es suficiente con conocer únicamente “¿qué sucede?” sino también el “¿por qué sucede?” para poder dar una solución completa al problema. Además, los riesgos de no conocer el “¿por qué sucede?” son múltiples y pueden afectar a la ética de la solución que nos proporciona nuestro algoritmo de Data Science ya que pueden generar por ejemplo discriminación. Un ejemplo reciente y bastante sonado se produjo con el algoritmo que decidía sobre la concesión o no y con qué importe de la tarjeta de crédito que lanzaron conjuntamente en Estados Unidos Goldman Sachs y Apple. En este caso se acusaba a las compañías de discriminación hacia las mujeres, ya que con las mismas características financieras ofrecía mucho mayores límites de crédito a los hombres que a las mujeres. Probablemente esta discriminación no fue voluntaria por parte de las compañías, ni por parte de los Data Scientists que diseñaron el proceso de concesión, sino que ocurrió porque los datos históricos con los que se construyó el algoritmo ya contenían ese sesgo y lógicamente si el algoritmo está bien construido, el resultado refleja el sesgo de los datos. El problema en este caso y en muchos otros similares consiste en no preguntarse o no ser capaces de interpretar el por qué de las soluciones aportadas por el algoritmo. La consecuencia en el caso de Goldman Sachs y Apple es que el Departamento de Servicios Financieros de Nueva York investiga el caso ya que “voluntaria o no, cualquier discriminación viola las leyes de Nueva York”. En este vídeo puedes ver como Google identifica y trata los sesgos humanos que pueden generar discriminación en sus algoritmos.
Adicionalmente, y continuando con el punto de vista jurídico, la GDPR (regulación para la protección de datos que entró en funcionamiento en 2018) parece (ya que existe bastante controversia al respecto) que introduce el derecho a recibir una explicación cuando un algoritmo toma una decisión de forma autónoma y dicha decisión puede tener un impacto relevante en las vida de las personas, como puede ser el caso de ciertas prácticas para el reclutamiento utilizadas por los departamentos de Recursos Humanos.
En cualquier caso y como diría Albert Einstein: “Si no puedes explicar algo de forma simple, es que no lo entiendes suficientemente bien”. Así que vamos a ver algunas de las técnicas en las que se está trabajando estos últimos años para mejorar la interpretabilidad de los algoritmos de Data Science:
- LIME (Locally Interpretable Model-Agnostic Explainer): No ofrece una explicación sobre el impacto de cada variable en el modelo global, sino que explica la importancia de cada variable en cada observación particular y lo consigue aplicando pequeñas variaciones (incrementos y decrementos de valor) a cada variable de la observación analizada y comprueba su efecto en el resultado del modelo. En términos técnicos construye un modelo lineal para cada variable de la observación, alrededor de dicha observación y comprueba el poder predictivo de dicho modelo lineal. La desventaja de este modelo es que si el problema a resolver es altamente no-lineal, este método no es eficaz.
- Shapley Values: Para determinar la influencia de cada variable en el resultado se final, se basa en eliminar dicha variable en el input y ver cuál es el impacto en el output. A diferencia de LIME sirve para analizar el impacto de cada variable a nivel local (de cada observación), pero también a nivel global (aunque con un elevado coste computacional).
- Anchors: Trata de buscar mini-modelos simplificados que ayuden a entender parcialmente nuestro modelo global. Por ejemplo, supongamos un modelo que utiliza 100 variables y cuya respuesta es SI o NO. La metodología Anchors nos proporcionaría “atajos” del siguiente estilo: si la variable X>50, la variable Y=35 y la variable Z<40, entonces en el 90% de las observaciones que cumplen esas condiciones la respuesta es SI.
La explicabilidad de los modelos de Data Science es un campo de investigación en tremendo auge ya que a mayor complejidad de los modelos mayor precisión en los resultados y además cada vez son más las decisiones que se gestionan basándose en procesos automatizados por lo que esperamos que este artículo te haya resultado de utilidad para comenzar a introducirte en este apasionante ámbito.
By Óscar Martínez Aceña.