En la era actual de la inteligencia artificial y el aprendizaje automático, los modelos considerados como black-box han emergido como herramientas poderosas y versátiles que han transformado una amplia gama de sectores, desde la industria hasta la investigación académica. Sin embargo, su aplicación en ámbitos críticos, como el sector de la salud, ha planteado desafíos significativos debido a su falta de interpretabilidad o explicabilidad. La incapacidad de comprender completamente cómo y por qué estos modelos toman decisiones específicas ha generado preocupaciones sobre su fiabilidad y seguridad en entornos donde las decisiones erróneas pueden tener consecuencias graves para los individuos. En este contexto, se ha reconocido la necesidad de desarrollar técnicas y herramientas que mejoren la explicabilidad de los modelos black-box, especialmente en aplicaciones críticas como el diagnóstico médico. Uno de los enfoques prometedores para abordar esta cuestión es el uso de contraejemplos, que son instancias específicas en las que el modelo produce una predicción errónea. Al analizar estos contraejemplos, es posible obtener información valiosa sobre el comportamiento del modelo y las características de entrada que influyen en sus decisiones. Este proyecto se centra en la utilización de contraejemplos como método para mejorar la explicabilidad de los modelos black-box en el contexto de la salud. Se propone desarrollar un interfaz que permita a los usuarios finales definir los parámetros de entrada y comprender la salida del modelo. Además, se buscará automatizar este proceso para identificar y presentar el contraejemplo más cercano que pueda cambiar la decisión del modelo aprendido. Esta aproximación tiene como objetivo proporcionar una herramienta efectiva para explicar qué cambios deben realizarse en casos específicos para alterar la decisión final del modelo, lo que puede ser crucial en la toma de decisiones clínicas y en la mejora de la confianza en la aplicación de la inteligencia artificial en el ámbito de la salud.
ABSTRACT
In the current era of artificial intelligence and machine learning, models considered as black-box have emerged as powerful and versatile tools that have transformed a wide range of sectors, from industry to academic research. However, their application in critical domains, such as the healthcare sector, has posed significant challenges due to their lack of interpretability or explainability. The inability to fully understand how and why these models make specific decisions has raised concerns about their reliability and security in environments where erroneous decisions can have serious consequences for individuals. In this context, the imperative need to develop techniques and tools that enhance the explainability of black-box models, especially in critical applications such as medical diagnosis, has been recognized. One promising approach to address this issue is the use of counterexamples, which are specific instances where the model produces a wrong prediction. By analyzing these counterexamples, it is possible to obtain valuable information about the model’s behavior and the input characteristics that influence its decisions. This project focuses on the utilization of counterexamples as a method to improve the explainability of black-box models in the context of healthcare. It is proposed to develop an interactive interface that allows end-users to define input parameters and understand the model’s output. Furthermore, efforts will be made to automate this process to identify and present the closest counterexample that could change the model’s learned decision. This approach aims to provide an effective tool for explaining what changes need to be made in specific cases to alter the model’s final decision, which can be crucial in informed clinical decision-making and in enhancing confidence in the application of artificial intelligence in the healthcare domain.
En la era actual de la inteligencia artificial y el aprendizaje automático, los modelos considerados como black-box han emergido como herramientas poderosas y versátiles que han transformado una amplia gama de sectores, desde la industria hasta la investigación académica. Sin embargo, su aplicación en ámbitos críticos, como el sector de la salud, ha planteado desafíos significativos debido a su falta de interpretabilidad o explicabilidad. La incapacidad de comprender completamente cómo y por qué estos modelos toman decisiones específicas ha generado preocupaciones sobre su fiabilidad y seguridad en entornos donde las decisiones erróneas pueden tener consecuencias graves para los individuos. En este contexto, se ha reconocido la necesidad de desarrollar técnicas y herramientas que mejoren la explicabilidad de los modelos black-box, especialmente en aplicaciones críticas como el diagnóstico médico. Uno de los enfoques prometedores para abordar esta cuestión es el uso de contraejemplos, que son instancias específicas en las que el modelo produce una predicción errónea. Al analizar estos contraejemplos, es posible obtener información valiosa sobre el comportamiento del modelo y las características de entrada que influyen en sus decisiones. Este proyecto se centra en la utilización de contraejemplos como método para mejorar la explicabilidad de los modelos black-box en el contexto de la salud. Se propone desarrollar un interfaz que permita a los usuarios finales definir los parámetros de entrada y comprender la salida del modelo. Además, se buscará automatizar este proceso para identificar y presentar el contraejemplo más cercano que pueda cambiar la decisión del modelo aprendido. Esta aproximación tiene como objetivo proporcionar una herramienta efectiva para explicar qué cambios deben realizarse en casos específicos para alterar la decisión final del modelo, lo que puede ser crucial en la toma de decisiones clínicas y en la mejora de la confianza en la aplicación de la inteligencia artificial en el ámbito de la salud.
ABSTRACT
In the current era of artificial intelligence and machine learning, models considered as black-box have emerged as powerful and versatile tools that have transformed a wide range of sectors, from industry to academic research. However, their application in critical domains, such as the healthcare sector, has posed significant challenges due to their lack of interpretability or explainability. The inability to fully understand how and why these models make specific decisions has raised concerns about their reliability and security in environments where erroneous decisions can have serious consequences for individuals. In this context, the imperative need to develop techniques and tools that enhance the explainability of black-box models, especially in critical applications such as medical diagnosis, has been recognized. One promising approach to address this issue is the use of counterexamples, which are specific instances where the model produces a wrong prediction. By analyzing these counterexamples, it is possible to obtain valuable information about the model’s behavior and the input characteristics that influence its decisions. This project focuses on the utilization of counterexamples as a method to improve the explainability of black-box models in the context of healthcare. It is proposed to develop an interactive interface that allows end-users to define input parameters and understand the model’s output. Furthermore, efforts will be made to automate this process to identify and present the closest counterexample that could change the model’s learned decision. This approach aims to provide an effective tool for explaining what changes need to be made in specific cases to alter the model’s final decision, which can be crucial in informed clinical decision-making and in enhancing confidence in the application of artificial intelligence in the healthcare domain. Read More