De hecho ya hay investigaciones y desarrollo para evitar la caja negra de la IA, por la creciente preocupación en la comunidad de la IA: construir modelos de ML de caja blanca/gris que sean interpretables por diseño (al menos en cierto grado) mientras logran una alta precisión o (ii) dotar a los modelos de caja negra con un nivel mínimo de interpretabilidad cuando los modelos de caja blanca/gris no pueden lograr un nivel admisible de precisión. Las técnicas XAI juegan un papel crucial cuando se trata de modelos DNN y cómo hacer que sus resultados sean comprensibles para los humanos [19] ( Ali et al., 2023).
https://doi.org/10.1016/j.inffus.2023.101805
https://doi.org/10.1016/j.inffus.2023.101805