Desarrollo y evaluación de un modelo de diseño de visualizaciones para inteligencia artificial explicable

Loading...
Thumbnail Image
Date
2022
Journal Title
Journal ISSN
Volume Title
Publisher
Abstract
En los últimos años, hemos sido testigos de la rápida adopción de la inteligencia artificial (IA) para automatizar y resolver diferentes tareas. Sin embargo, el uso de sistemas basados en IA a menudo carece de explicabilidad, lo que significa permitir que los usuarios comprendan el fundamento detrás de las predicciones de los sistemas de IA. Este problema ha impulsado el desarrollo de la IA explicable (XAI) y se han propuesto diversos métodos para construir explicaciones. Varios métodos recurren a generar visualizaciones que apoyen la explicación; por lo tanto, XAI no solo implica conocimientos de IA como el sistema que se utilizara o los algoritmos que se explicarán, sino que también se necesitarán conocimientos para diseñar e implementar visualizaciones adecuadas. Aunque existen flujos de trabajo para diseñar aplicaciones de aprendizaje automático interactivo (IML) o XAI, éstos se centran en las etapas del proceso de creación de modelos de aprendizaje automático (ML) y no proporcionan pautas o estrategias para diseñar o analizar las visualizaciones destinadas a aplicaciones de XAI. Por lo tanto, este trabajo propone comenzar desde el espacio de tareas de XAI y conectarlo al modelo anidado de Munzner ampliamente adoptado para diseñar visualización que permitan cerrar esta brecha. De esta forma, en esta tesis se propone el framework VD4XAI (Visualization Design for XAI) para guiar el proceso de análisis y diseño de visualizaciones de XAI para explicaciones locales. Esto también fomentará el desarrollo y la aplicación de enfoques visuales de XAI.
Description
Tesis (Magíster en Ciencias de la Ingeniería)--Pontificia Universidad Católica de Chile, 2022
Keywords
Citation