Las explicaciones contrafactuales tratan de describir un posible escenario alternativo que no ha tenido lugar y contradice los hechos mostrando cómo habría sido el resultado bajo condiciones distintas, un aspecto esencial para que los usuarios entiendan y actúen sobre las predicciones. Al formular este tipo de explicaciones, que se presentan como contraejemplos de la clase objetivo elaborados a partir de una instancia inicial, es crucial considerar la alta probabilidad de generar muestras poco útiles o incluso imposibles. Esto puede ocurrir por ejemplo si se proponen modificaciones sobre demasiadas características, un cambio desproporcional al necesario o cuando el resultado es inalcanzable desde la instancia sometida a estudio.
Con el fin de producir explicaciones adecuadas ante desafíos como los mencionados, en el presente trabajo se propone el diseño y desarrollo de dos propuestas de algoritmos generadores de contrafactuales independientes del modelo con los que se ha buscado abordar los aspectos más deseables al proporcionar este tipo de explicaciones y obtener resultados competitivos. Ambos procesos se basan en una estrategia de mejora centrada en otra forma de explicación ampliamente adoptada: la relevancia de las características para guiar el cambio mínimo, priorizando su modificación.
La eficacia de estos métodos ha sido demostrada sobre cinco conjuntos de datos, evaluando tanto su coherencia lógica en las explicaciones como su rendimiento práctico. El primer algoritmo es un mecanismo de formulación de contrafactuales sintéticos que sigue una estrategia híbrida, combinando enfoques basados en optimización y búsqueda heurística. Por otro lado, el segundo algoritmo sigue la idea de construir un camino incremental de ejemplos para guiar y asegurar la factibilidad de un cambio hacia una situación contrafactual. Finalmente, también se ha llevado a cabo un estudio comparativo sobre la primera propuesta con varias técnicas relevantes actuales, consiguiendo superarlas en diversos campos.
ABSTRACT
Counterfactual explanations aim to describe a potential alternative scenario that did not occur, contradicting the initial facts by showing how the outcome would have been under different conditions. This is essential for users to understand and act upon predictions. When formulating such explanations, presented as counterexamples to the target class, derived from an initial instance, it is crucial to consider the high probability of generating samples that are either unhelpful or even impossible. This may happen, for example, if modifications are proposed on too many features, if the change is disproportionate to what is necessary, or if the result is unattainable from the instance under study.
To produce suitable explanations in the face of challenges like those mentioned, this work proposes the design and development of two algorithmic proposals for generating counterfactuals independent of the model. These proposals aim to address the most desirable aspects when providing such explanations and to achieve competitive results. Both processes are based on an improvement strategy focused on another widely adopted form of explanation: the relevance of features to guide minimal change, prioritizing their modification.
The effectiveness of these methods has been demonstrated on five datasets, evaluating both their logical coherence in explanations and their practical performance. The first algorithm is a mechanism for formulating synthetic counterfactuals that follows a hybrid strategy, combining optimization-based approaches with heuristic search. On the other hand, the second algorithm follows the idea of constructing an incremental path of examples to guide and ensure the feasibility of a change towards a counterfactual situation. Finally, a comparative study has been conducted on the first proposal with various relevant current techniques, surpassing them in diverse fields.
Las explicaciones contrafactuales tratan de describir un posible escenario alternativo que no ha tenido lugar y contradice los hechos mostrando cómo habría sido el resultado bajo condiciones distintas, un aspecto esencial para que los usuarios entiendan y actúen sobre las predicciones. Al formular este tipo de explicaciones, que se presentan como contraejemplos de la clase objetivo elaborados a partir de una instancia inicial, es crucial considerar la alta probabilidad de generar muestras poco útiles o incluso imposibles. Esto puede ocurrir por ejemplo si se proponen modificaciones sobre demasiadas características, un cambio desproporcional al necesario o cuando el resultado es inalcanzable desde la instancia sometida a estudio.
Con el fin de producir explicaciones adecuadas ante desafíos como los mencionados, en el presente trabajo se propone el diseño y desarrollo de dos propuestas de algoritmos generadores de contrafactuales independientes del modelo con los que se ha buscado abordar los aspectos más deseables al proporcionar este tipo de explicaciones y obtener resultados competitivos. Ambos procesos se basan en una estrategia de mejora centrada en otra forma de explicación ampliamente adoptada: la relevancia de las características para guiar el cambio mínimo, priorizando su modificación.
La eficacia de estos métodos ha sido demostrada sobre cinco conjuntos de datos, evaluando tanto su coherencia lógica en las explicaciones como su rendimiento práctico. El primer algoritmo es un mecanismo de formulación de contrafactuales sintéticos que sigue una estrategia híbrida, combinando enfoques basados en optimización y búsqueda heurística. Por otro lado, el segundo algoritmo sigue la idea de construir un camino incremental de ejemplos para guiar y asegurar la factibilidad de un cambio hacia una situación contrafactual. Finalmente, también se ha llevado a cabo un estudio comparativo sobre la primera propuesta con varias técnicas relevantes actuales, consiguiendo superarlas en diversos campos.
ABSTRACT
Counterfactual explanations aim to describe a potential alternative scenario that did not occur, contradicting the initial facts by showing how the outcome would have been under different conditions. This is essential for users to understand and act upon predictions. When formulating such explanations, presented as counterexamples to the target class, derived from an initial instance, it is crucial to consider the high probability of generating samples that are either unhelpful or even impossible. This may happen, for example, if modifications are proposed on too many features, if the change is disproportionate to what is necessary, or if the result is unattainable from the instance under study.
To produce suitable explanations in the face of challenges like those mentioned, this work proposes the design and development of two algorithmic proposals for generating counterfactuals independent of the model. These proposals aim to address the most desirable aspects when providing such explanations and to achieve competitive results. Both processes are based on an improvement strategy focused on another widely adopted form of explanation: the relevance of features to guide minimal change, prioritizing their modification.
The effectiveness of these methods has been demonstrated on five datasets, evaluating both their logical coherence in explanations and their practical performance. The first algorithm is a mechanism for formulating synthetic counterfactuals that follows a hybrid strategy, combining optimization-based approaches with heuristic search. On the other hand, the second algorithm follows the idea of constructing an incremental path of examples to guide and ensure the feasibility of a change towards a counterfactual situation. Finally, a comparative study has been conducted on the first proposal with various relevant current techniques, surpassing them in diverse fields. Read More