2. Modelos intrínsecamente interpretables

Resumen del libro de Molnar

Javier París

1 Regresión lineal

1.1

1.2 Interpretación de los coeficientes en atributos numéricos

Dada la ecuación lineal a ajustar por el modelo:

\(y = \omega_0 + \omega_1 x_1 + \omega_2 x_2 + \ldots + \omega_n x_n\)

Se puede interpretar cada uno de los coeficientes \(\omega_i\) como: manteniendo todos los demás factores constantes, un incremento de una unidad en \(x_i\) se asocia con un incremento de \(\omega_i\) en \(y\).

1.3 Interpretación según atributo

  • Atributos numéricos: incremento en \(\omega_i\) por incremento en una unidad en \(x\).
  • Atributos categóricos: incremento en \(\omega_i\) por comparación con la categoría base.
  • \(\omega_0\): valor esperado de \(y\) con todos los demás atributos como valor base \((x=0)\). Con todos los atributos normalizados, este valor pasa a ser el valor esperado para el dato promedio.

1.4 Feature importance

El valor de cada coeficiente está intrínsecamente relacionada con la importancia de cada atributo, pero también es altamente dependiente de la variación de dicho atributo. Por eso es importante normalizar los atributos para poder comparar los coeficientes entre sí.

Además, la correlación entre atributos puede hacer que los coeficientes no tengan sentido. Para eso se pueden usar ténicas de regularización como LASSO.

1.5 Pros / Cons

1.5.1 Ventajas

  • Interpretación directa de los coeficientes. No hay caja negra.
  • Ampliamente aceptado y utilizado.
  • Garantía de encontrar el modelo óptimo (algebraicamente).

1.5.2 Desventajas

  • No puede ajustar funciones no lineales.
  • No modela relación entre atributos.
    • Atributos muy correlacionados pueden dar a coeficientes sin sentido (infinitas soluciones del sistema de ecuaciones).

1.6 Conclusiones

  • Es un modelo fácilmente interpretable localmente. Es estrictamente monótono.
  • Para poder ver la importancia de los atributos, es necesario normalizarlos y usar regularización.

2 Modelos basados en Regresión lineal

2.1

2.2 GLM (Generalized Linear Models)

Este tipo de modelos se basa en una regresión lineal ajustando la regresión a una distribución de probabilidad no gaussiana, y aplicándole una función de enlace.

\(g(E(y|x)) = \omega_0 + \omega_1 x_1 + \omega_2 x_2 + \ldots + \omega_n x_n\)

El caso de la regresión logística es un caso particular de GLM donde \(g=ln\) y la distribución es binomial.

2.3 Interpretación GLM

La interpretación de los coeficientes depende de la función de enlace:

  • Identidad: Los coeficientes siguen interpretándose como la suma
  • Logarítmica: Los coeficientes pasan a ser multiplicativos (como en la regresión logística)
  • Otras: depende de la función de enlace, y en muchos casos no tienen interpretación directa.

2.4 GAM (Generalized Additive Models)

Los GAM son una extensión de los GLM que permiten ajustar funciones no lineales a los atributos.

\(g(E(y|x)) = \omega_0 + f_1(x_1) + f_2(x_2) + \ldots + f_n(x_n)\)

Normalmente se usan splines para ajustar funciones no lineales a los atributos.

2.5 Pros / Cons

2.5.1 Ventajas

  • Se pueden ajustar gran cantidad de funciones no lineales.
  • Áun mantienen parte de la interpretabilidad de los modelos lineales.

2.5.2 Desventajas

  • Estos modelos son difíciles de pre-ajustar y son altamente dependientes de los datos.
  • Son menos interpretables.
  • Asumen ciertas características de los datos.

3 Árboles de decisión

3.1

3.2 Interpretación de los nodos

Un árbol de decisión se puede interpretar como una división del espacio de atributos en subconjuntos, donde cada subconjunto se asocia con un nodo hoja.

\(y = \sum_{a=1}^A c_a I(x \in R_i)\)

Los árboles de decisión se interpretan por la decisión en cada nodo, y la importancia de cada atributo se mide por la cantidad de veces que se usa en el árbol.

3.3 Pros / Cons

3.3.1 Ventajas

  • Es capaz de modelar funciones no lineales y relaciones entre atributos.
  • Tiene una visualización directa y sencilla.
  • Es fácilmente interpretable debido a su naturaleza de explicar las decisiones como “what if”.

3.3.2 Desventajas

  • No son capaces de modelar relaciones lineales.
    • Un mismo cambio en un dato puede hacer que la predicción no cambie o que cambie drásticamente.
  • Son altamente inestables. Dependen altamente del dataset y de la decisión de qué atributos elegir en qué orden.
  • El número de nodos final aumenta exponencialmente con la profundidad del árbol.

4 Modelos basados en reglas

4.1

4.2 Reglas de decisión

\(IF(cond[\And]) \rightarrow THEN(class)\)

Las reglas de estos modelos son altamente interpretables ya que se asemejan al lenguaje natural.

Cada reglar se puede medir principalmente con 2 valores, que suelen ser inversamente proporcionales:

  • Soporte/Cobertura: cuántas veces se cumple la regla.
  • Precisión: cuántas veces la regla acierta.

4.3 Pros / Cons

4.3.1 Ventajas

  • Son altamente interpretables.
  • Son muy similares a los árboles, aunque en general más compactos.
  • Son robustos (no inestables) frente a cambios en los datos o outliers.
  • Solo utilizan los atributos relevantes.

4.3.2 Desventajas

  • No sirven para problemas de regresión
  • En muchos casos por el método o por motivos de complejidad, los atributos deben ser categóricos
  • No son capaces de modelar relaciones lineales.
  • En muchos casos se da overfitting.

5 Rule fit

5.1

5.2 Implementación

Modelo que ajusta nodos hoja de un árbol de decisión como atributos de un modelo lineal.

  • Se generan reglas a partir de un árbol de decisión.
  • Cada nodo hoja se interpreta como un atributo binario.
  • Se añaden los atributos numéricos originales.
  • Se entrena un modelo lineal con estos atributos utilizando regularización LASSO.

5.3 Interpretación

La importancia de cada atributo se mide como en un modelo lineal:

  • Atributos numéricos: incremento en \(\omega_i\) por incremento en una unidad en \(x\).
  • Reglas: incremento en \(\omega_i\) si se cumple la regla.

5.4 Pros / Cons

5.4.1 Ventajas

  • Todas las ventajas del modelo lineal
  • Añade las interacciones entre atributos al modelo
  • Es fácil localmente interpretable, ya que las reglas suelen aplicar a regiones pequeñas

5.4.2 Desventajas

  • Puede generar muchas reglas que hagan el modelo demasiado complejo
  • La interpretación sigue fallando en el mismo caso que la lineal: solo es interpretable si el resto de atributos son constantes

6 Otros

6.1 Naive Bayes

\(P(C_k|x) = \frac{P(x|C_k)P(C_k)}{P(x)}\)

Es fácilmente interpretable la importancia de cada atributo \(P(x|C_k)\).

6.2 KNN

Al ser un modelo basado en instancias (datos) no puede tener ciertas interpretaciones, como global o modular.

El modelo es interpretable en tanto en cuanto sus atributos (una instancia concreta) son interpretables. Es decir, su interpretabilidad se reduce con el número de atributos.

7 Conclusiones

7.1 Comparación de modelos

Comparación de modelos
Modelo Datos Lineales Datos NO Lineales Relación Entre Atributos Interpretación Intrínseca Interpretación Global Interpretación Local Atributos Numericos Atributos Categoricos Consistente Estable
Regresión Lineal ☑️ ☑️ ☑️ ☑️ ☑️ ~ ☑️ ☑️
GLM - GAM ☑️ ☑️ ~ ~ ☑️ ~ ~ ~
Árboles ☑️ ☑️ ☑️ ~ ☑️ ~ ☑️
Reglas ☑️ ☑️ ~ ~ ☑️ ☑️ ☑️
RuleFit ~ ☑️ ☑️ ~ ☑️ ☑️ ☑️ ~

7.2 Complejidad del Dataset

  • Dimensionalidad
    • Número de atributos
    • Correlaciones y dependencias
    • Análisis de importancia
  • Linearidad
    • LDA (Análisis Discriminante Lineal) (Discriminante lineal de Fisher)
  • Frontera
    • Vectores soporte
    • Longitud de la frontera
    • Dimensión fractal
  • Overlapping
    • Volumen de región de overlapping
  • Learning Theory
    • VC Dimension: cardinalidad del mayor conjunto de puntos que un algoritmo puede separar
    • Rademacher Complexity: mide la riqueza de una clase de conjuntos con respecto a una distribución de probabilidad
  • etc.

7.3 Complejidad del Modelo

  • Complejidad algorítmica [Inferencia]
    • \(O(f(n))\)
  • Número de parámetros
    • Modelo lineal: \(=#atributos\)
      • LASSO: reducción
    • ANN: \(=#pesos\)
    • Árbol de decisión: \(=#aristas\)
  • Complejidad de la frontera
    • Parámetrización analítica
      • Regiones lineales
      • curva parametrizada
  • etc.

7.4 Propuesta de medida

Una posible propuesta de cómo medir la interpretabilidad local de un modelo de forma cuantitativa:

Encontrar \(N\) modelos puramente lineales que aproximen el modelo original en una región separada por reglas (similar a árboles de regresión pero basado en reglas y no en nodos).

Medir cuántas reglas hacen falta para aproximar el modelo con un error \(\lt \epsilon\)

Este método se podría usar tanto para calcular la interpretabilidad (complejidad) de un dataset ¿Cuántas reglas necesito para ajustar este dataset con \(1-\epsilon\) de precisión: cálculo numérico.

como para medir la interpretabilidad de un modelo ¿Cuántas reglas necesito para ajustar este modelo con \(1-\epsilon\) de precisión sobre la predicción: cálculo analítico.

7.5 Ejemplo de complejidad del dataset

7.6 Ejemplo de complejidad del modelo

7.7 Propuesta formal

7.7.1 Medida de la interpretabilidad de un dataset

Tras ajustar un dataset con reglas que separen el espacio y ajustar un modelo lineal continuo en cada región:

7.7.2 Medida de la interpretabilidad de un modelo

Tras ajustar un modelo con reglas que separen el espacio y ajustar un modelo lineal continuo en cada región:

Un dataset/modelo será más interpretable cuantas menos reglas necesite y/o menos atributos tenga cada modelo lineal.