Una de las principales preocupaciones con respecto al rápido desarrollo de la inteligencia artificial (IA) concierne a la (in)capacidad para generar explicaciones tanto sobre su funcionamiento como sobre su dominio de aplicación. Por ejemplo, se ha debatido ampliamente el uso de modelos desarrollados con aprendizaje automático en la investigación científica, debido a la opacidad inherente a estos modelos: debido a su funcionamiento, resultan limitados para explicar y mejorar nuestra comprensión de los fenómenos investigados. Necesitamos encontrar formas alternativas de superar estas preocupaciones.
Se requiere desarrollar técnicas que nos permitan explotar las características explicativas de modelos de IA de aprendizaje automático –comúnmente denominados ‘cajas negras’– para mejorar nuestra comprensión de su funcionamiento y fomentar nuestra confianza en ellos. Una sugerencia que parece prometedora es utilizar la lógica de justificación para modelar y desarrollar explicaciones basadas en algoritmos de árboles de decisión, que son cruciales para la mayoría de las técnicas de aprendizaje automático. Esto nos permitiría comprender el potencial de la IA para ofrecer explicaciones y no solo soluciones ad hoc a problemas prácticos. También puede ofrecer nuevas aproximaciones en la discusión filosófica más amplia en torno a la explicación científica.
La lógica de la justificación, presentada por primera vez por Sergei Artemov y Elena Nogina (2005), es una lógica que introduce la noción de justificación. Puede verse como un marco formal compuesto por diferentes lógicas modales, cuya principal modalidad es la de ‘justificación’ entendida como ‘razón(es) para saber algo’. La característica principal de la lógica de la justificación es la introducción y especificación de estas modalidades dentro del lenguaje. Pretenden capturar o expresar explícitamente la existencia de justificaciones o razones para sostener proposiciones. Por tanto, en lugar de simplemente afirmar una proposición que se sabe que es verdadera, también se debe afirmar la justificación o la razón de la verdad de la proposición. Dado que una justificación apoya una proposición ofreciendo razones para creer que es verdadera, también puede servir como explicación: ofrece razones que también pueden contribuir a comprender por qué es verdadera. Esta relación es particularmente robusta en el caso de la explicación matemática: demostrar un teorema puede servir para justificarlo, pero también puede ser una manera de explicarlo.
La estructura lógica de una justificación puede emplearse para modelar explicaciones de modelos de IA. Al representarlos mediante árboles de decisión (una de las formas más simples de aprendizaje automático) empleando la lógica de la justificación, es posible desentrañar y explotar las características explicativas de este tipo de algoritmo. Los algoritmos de árboles de decisión son un tipo de aprendizaje automático supervisado: se especifican la entrada y su salida correspondiente en los datos de entrenamiento. En ellos, los datos se dividen continuamente de acuerdo con un cierto parámetro. El árbol está compuesto por ‘hojas’ y ‘nodos’ de decisión; los primeros son las decisiones o los resultados finales, mientras que en los nodos es donde se dividen los datos. Esta estructura se puede analizar a través de la lógica de la justificación, mostrando lo que justifica los nodos de decisión o los resultados finales. Si el vínculo que hemos sugerido entre justificación y explicación puede aplicarse a estos casos, esta justificación a su vez puede traducirse en una vía explicativa para comprender tal resultado. Esto permitiría mejorar nuestra comprensión de la IA, así como fomentar nuestra confianza en ella.
mgenso@gmail.com




